像必应聊天这样的AI聊天机器人真的能经历幻觉吗
如果你在 2022 年和 2023 年一直在互联网上,你会看到很多关于 ChatGPT 等 AI 聊天机器人的喧嚣,以及最近的微软 Bing AI。这些人工智能系统使用自然语言处理和从庞大数据集训练中收集的信息的组合来与用户交互。它们与您在互联网早期可能遇到的原始聊天机器人相去甚远。微软的 Bing Chat 在 7 年 2023 月 <> 日推出时将这些人工智能智能带到了其臭名昭著的搜索引擎中,连接了 Bing 和 ChatGPT,以实现实时连接的 ChatGPT,可以根据实时收集的信息回答问题。
我们看到的人工智能系统在交付方面令人难以置信,它们提供的信息似乎是准确的,但我们花在修补它们上的时间越长,缺陷似乎就越多。人们一直在使用人工智能来编写代码,做功课,甚至写文章和视频脚本,并取得了不同程度的成功。文本生成AI模型的最大挑战之一被称为“幻觉”,它正在迅速侵蚀其他革命性技术的光泽。
人工智能让人联想到虚假的事实、来源和奇怪的手
许多用户在使用Bing Chat和ChatGPT等工具时注意到的一个明显问题是AI系统容易出错。正如格雷格·科斯特罗(Greg Kostello)向Cybernews解释的那样,人工智能中的幻觉是指人工智能系统自信地呈现没有现实基础的信息。早期发现的一个常见错误是发明了来源和引用。在YouTube上的《牛津评论》演示中,ChatGPT插入了对不存在的研究论文的引用。引用的期刊是真实的,但论文和作者无处可寻。
在另一个奇怪的例子中,微软的Bing Chat在发布演示期间编造了有关真空吸尘器的信息,而Reddit的帖子似乎显示Bing Chat存在轻微的生存危机。
不过,人工智能幻觉不仅仅存在于文本生成聊天机器人中。人工智能艺术生成器在某种意义上也会产生幻觉,但在这种情况下,它们往往会歪曲解剖学。这通常表现在手指数量不多的人类角色中,正如 u/zengccfun 在 Reddit 上的 r/AIGeneratedArt 上的这篇文章中看到的那样,或者根本没有意义的设计和架构。
为什么人工智能系统会产生幻觉?
人工智能生成器的问题——无论是文本到图像还是语言生成器——都是它们如何训练以及如何生成响应所固有的。据《卫报》报道,人工智能是使用来自互联网的内容进行训练的,它用它来获取有关各种主题的知识和背景。当用户在 ChatGPT 之类的东西中输入提示时,它会深入研究其知识库并根据其上下文提供响应。正如认知科学家道格拉斯·霍夫施塔特(Douglas Hofstadter)在《经济学人》中解释的那样,人工智能不是有意识的或有知觉的,即使它确实尽力说服我们中的一些人。
根据《科学焦点》的说法,这些人工智能幻觉源于对主题的根本缺乏理解——人工智能画手不是因为它知道解剖学是如何工作的,而是因为它受过手的训练。人工智能犯这些错误令人担忧,因为它可能会导致重要的人工智能应用出现重大问题,如自动驾驶汽车、新闻和医疗诊断,但它也可能给那些关心生计的人带来一些安慰。人工智能的不准确和幻觉意味着它可能还没有来找你的工作。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。