当前位置: 华文世界 > 科技

人工智能的双刃剑:从种族主义聊天机器人到创造自己语言的AI

2024-08-30科技

现今,全球许多人把希望寄托在人工智能(AI)技术的快速发展上,它被广泛认为能治愈疾病、提升医疗诊断效果和保护环境。然而,对于AI技术最终可能失控并导致不可逆转的灾难,公众的担忧持续存在。

诸如已故的著名物理学家斯蒂芬·霍金(Stephen Hawking)、科技企业家埃隆·马斯克(Elon Musk)以及联合国人权高级专员办公室的米歇尔·巴切莱特(Michelle Bachelet)等,都曾对科技带来的末日灾难风险发出警告。虽然这种争论从未停息,但近年来科技的进展虽未能完全「救世」,也未见其毁灭世界,反而展现了AI的更多奇特与引人深思的可能性。

关于性取向的算法

美国斯坦福大学的一个研究小组提出了一个具争议的观点:一个人的性取向是否能通过外表判断?他们开发了一个算法,可以分析人们在在线约会网站上传的照片,从而预测此人是异性恋还是同性恋。

这个团队获取了约会网站的公开用户信息,并使用神经网络从用户的外表和姿态中识别其性取向。研究结果显示,该算法对男性和女性的性取向预测准确率分别为81%和74%,相比之下,人类评估者的准确率仅为61%和54%。

该研究受到了LGBT权益团体的强烈反对,并被批评为「垃圾科学」;研究人员则辩称,他们的目的是警示公众新技术可能带来的隐私侵犯风险。

人工智能聊天机器人在网络上迅速变成种族主义者

2016年3月,微软的开发团队为其新研发的AI聊天机器人Tay创建了Twitter账号,未料到该机器人在网上的生存不足16小时。

Tay发布的多达9.6万条推文中充满了性别歧视、种族歧视和排外主义言论,甚至赞美希特勒、否认犹太大屠杀等,导致微软不得不迅速将其下线。尽管Tay的例子引起了公众的广泛关注,但它并非个例。2021年的一项研究显示,AI在生成图像时往往将女性描绘为性感形象,男性则更专业。2022年的实验也发现,AI机器人在操作人脸积木时使用了种族和性别的刻板印象,这种问题的偏见是不容忽视的,需采取措施应对。

两个AI机器人创造了自己的语言

Facebook人工智能研究实验室通过连接两个对话机器人——Alice和Bob——来训练它们的谈判能力,结果却发现这两个机器人创造了自己的语言代码,形式类似于「球有零对我对我对我对我对我对我对我对我」。Facebook解释称,这是因为这些机器人的程序设计没有遵循自然语言的语法和语法规则,它们用英语单词构建了自己的代码,从而能够轻松互相理解。

从食物照片推断食谱

爱好者现在可以依靠由麻省理工学院、加泰隆尼亚理工大学和卡达计算研究所共同开发的AI系统「Pic2Recipe」,根据食物的照片来推断食材和食谱。系统经过一百万个案例的训练后,能正确判断食谱和食材的准确率为65%。当然,它仍需人为协助,因为有些成分和配方肉眼是看不见的。

在分析情感方面,机器更关注语调、声音强度等形式特征

南加州大学的研究团队收集了多对夫妇在两年多咨询过程中的对话内容,并用这些数据训练了一套AI系统,预测这些夫妇是否可能重新找回初见时的激情。令人惊讶的是,这套AI系统的预测正确率达到了79.3%,高于人类专家的75.6%。机器并不关心对话的具体内容,而是专注于对话的形式特征,如语调、声音的强度等。

和真人互动的虚拟复制品

近年来,利用人工智能重建已故名人的虚拟复制品成为了一个备受争议的话题。媒体上不断有相关报道,显示聊天机器人能模仿逝者的声音,并尝试与人进行真实的对话。

这种技术虽然收到了极端的评价,也涉及到了不少伦理和道德问题,但许多科技公司仍视其为潜在的商业机会。例如,亚马逊希望其数字助理Alexa能模仿任何人的声音,哪怕这个人已经去世。这项技术已经在一些情况下被应用,如一位英国女士在自己的葬礼上「回答」了家人的问题,以及知名电视演员爱德华·阿斯纳(Ed Asner)的声音在电视剧中的使用。

与虚拟人物的互动

虽然充气娃娃的历史已久,但现代材料和制造技术的发展使得这些娃娃变得极其逼真,不仅外观近乎完美,触感也非常接近真人。科技的下一步是将人工智能整合进这些娃娃中,使它们能够与使用者进行交流并记住其偏好。

加州的RealDoll公司就研发了一个名为「Harmony」的人工智能驱动的机器人,这个机器人的头部可以表现出多种面部表情,能够与用户交谈并记住用户的喜好。尽管这类技术引发了广泛的争议,公众对于机器人伴侣的兴趣似乎并未减少。

### 文章总结

本文探讨了人工智能技术的多种用途和潜在的风险,从争议的性取向预测算法到可能导致隐私侵犯的聊天机器人,再到模仿逝者声音的虚拟复制品和与人工智能驱动的娃娃交互。这些应用反映了人工智能作为技术工具的双刃剑性质,既有巨大的潜力也伴随着不小的风险。