一周三次“标志性失败”!AI要从“超红”变“黑红”了?
过往一周,人工智能领域有三个大的新闻:
纽约大学心理学和神经科学教授Gary Marcus表达,有人在Twitter上说这是三个不同的问题,但并不是,“特斯拉召回、微软Bing失败和谷歌Bard失败并不是独立的,每一个都反映了一个事实,那就是我们不能仅靠大数据和深度学习在现实世界中构建人工智能”。
“同时发生的内爆会将AI打进冷冬吗?”Marcus问到。
他在Twitter上说,我们需要新的方法,目前AI已经被过度营销。
从假新闻到假看点,AI会让互联网“更假”?
近期ChatGPT火爆全球,让人们看到了人工智能的飞速发展。
有分析称,ChatGPT显然是一个强大的新工具,有潜力在许多领域做很多好事,但也会有不利的一面。其中,像ChatGPT这样的AI将能够对任何事情产生无限的、几乎免费的“意见”。但与此同时也会产生很多虚假看点,并侵蚀自由主义话语中的另一个信赖支柱,即活跃在线上的是真实的人。
如今,网络上的假新闻泛滥已经成为一个全球性的问题。假新闻以不实资讯误导大众,以带来政治、经济、市场利益或心理成就感的新闻或宣扬,包括通过传统新闻媒体(印刷和广播)或在线社交媒体传播有意错误资讯或恶作剧,并形成一种负面循环。
毫无疑问,处理有意的假新闻是一个难题。而AI假如分享的是虚假看点,可能会产生更大的影响。宣扬者明白这一点:让一个人信赖某件事,最有效的策略也许就是让他们信赖大多数和他们一样的人已经信赖了这件事。
与过往的机器人不同,ChatGPT或类似的AI不需要发送几乎完全相同看点的复制粘贴语句。它们可以模拟人类,在一系列主题中产生无限连贯、细致进微和完全特殊的内容。
分析称,由一个AI运行的Facebook账户可能会一开始天天发布食谱或关于它的狗的故事,过几个月或几年后才开始散布一些看点。数以百万计的人可以、也将会在几乎没有成本的情状下创建这样的账户。
机器人账户不仅会主动发帖,还会对其他用户的帖子做出反应,并参与长期对话。它们可以被编程为觅觅特定的要害词,分析过往的文章,并给出合理的回答。
几乎免费的意见的无限给予可能会排挤真实的——即人类的——奉献。一旦机器人专家变得与人类无法区分,人类将开始质疑网络上每个人的身份,特别是那些与他们意见相左的人。
分析还称,尽管AI还不成熟,但技术的局限性并不阻碍播下不信赖的种子。某种意义上,技术局限甚至可能是一种功能,而不是bug。
在Twitter上随机争论的用户并不以其言论的正确性和复杂性而闻名。错误、不正确,甚至是编造的消息来源都可能给机器带来人性化的感觉。最重要的是可信度,当前版本的ChatGPT制造可信内容的能力肯定不比普通Twitter用户差。
生成式AI是一面镜子:它最大的缺陷是人类的缺陷
也有分析指出,生成式AI有时会被指责有成见、不正确甚至自相矛盾,但这些都不是生成式AI本身的特征。问题的根本原因是,我们练习神经网络来模拟的人类发明的内容是有成见的、不正确的、自相矛盾的。为什么?因为我们,发明它的人,每个人都有自己的成见,会犯错误,然后这些内容被用作练习神经网络的语料库。
一种可能的解决方案是确保当我们练习神经网络时,我们提给予它的内容是公平、正确和逻辑一致的。除非我们这样做,否则我们只是在模拟和延续过往的错误:输进垃圾,输出垃圾。到目前为止,这个问题一直困扰着OpenAI的GPT系列模型,因为它们都被提供了大量网络的快照,作为它们应该模拟的内容的基础。
网络当然不是完全公平、正确和逻辑一致的,这就是为什么OpenAI对其模型进行了编码包装,以试图防止用户得到模型可能产生的最坏结果——到目前为止,这只是部分成功。
不幸的是,确保用于练习神经网络的内容公平正确,说起来轻易做起来难。另一种可能更现实的方法是试图确定神经网络存储信心的位置,然后编辑这些信心以使其正确,或者删除错误的信心,否则会与同样持有的正确信心相排挤。
无论摘取何种方法,更棘手的挑战将是找出谁来决定哪些信心是有成见的、不正确的或不合逻辑的,哪些不是。这与其说是一个技术挑战,不如说是一个文化和社会挑战。
分析指出,在决定语料库或模型的哪些部分是有成见的、不正确的或不合逻辑的复杂过程中,以人为本的设计过程将是必不可少的,因为它强调理解使用系统的人的真实需求和生活体会,并经常迭代以达到更高的质量。