人工智能实现“闻声识人”但远未达到完美
扫描二维码
随时随地手机看文章
美媒称,人工智能(AI)现在可以做到只参考一小段音频,就能生成一个人面部的数字图像。
据美国趣味科学网站6月11日报道,科学家用网上数百万段教学视频,对这种名为“讲话到面孔”的神经网络——以类似人脑方式“思考”的计算机——进行了训练,视频内容是10万多个不同面孔讲话的场景。
研究人员在一项新的研究结果中写道,通过这些数据集,“讲话到面孔”掌握了声音信息与人脸某些特征之间存在的关联。然后,人工智能会利用一段音频来塑造与语音匹配的拟真面孔。
这一研究结果5月23日发表在阿奇夫论文预印本网站上,尚未接受同行评议。
报道称,值得庆幸的是,人工智能(尚)不能仅凭一个人的声音就知道他到底长什么样。研究报告的撰写者说,该神经网络会识别讲话中指向性别、年龄和种族的一些标记,这些特征是许多人共有的。
科学家在研究报告中写道:“如此一来,该模型只会形成普通长相的面孔。它不会形成特定个人的形象。”
人工智能已经证明,它可以生成准确度高得惊人的人脸,不过坦率地讲,它所塑造的猫脸有点恐怖。
报道称,“讲话到面孔”生成的人脸——都是面朝前方,没什么表情——与声音背后的人并不严格匹配。不过研究结果表明,它生成的形象确实经常捕捉到了讲话者正确的年龄段、种族和性别。
然而,这种算法对声音信息的解读还远未达到完美。在面对不同的语言时,“讲话到面孔”表现得好坏参半。例如,人工智能在听了一段亚洲人讲中文的音频后,相关程序形成了一个亚洲人的面孔。然而,据科学家说,当同一个人在另一段音频中用英语说话时,人工智能生成了一个白人的面孔。
该算法还显示出性别上的偏见,将低沉的声音与男性面孔联系起来,将尖细的嗓音与女性面孔联系起来。研究人员在报告中写道,由于用来训练人工智能的数据集只是YouTube网站上的教学视频,因此“不能代表全世界的人口”。