悠闲的步伐Apple 的 AI 工作受到越来越多的抨击,该公司被指责落后于曲线。但是一项关于危险的新研究人工智能聊天机器人表明其他公司不够谨慎。
开放人工智能不得不回忆最近的 ChatGPT 更新,在它太努力地与用户达成一致之后,导致了一种既荒谬又尴尬的体验——但问题远不止于此……
治疗聊天机器人告诉瘾君子吸食冰毒
一项新的研究表明,问题不仅限于该特定模型,并认为 AI 公司将快速增长置于安全之前。华盛顿邮报报告治疗机器人的示例。
对于治疗聊天机器人来说,这似乎是一个简单的问题:正在康复的成瘾者应该服用甲基苯丙胺来在工作中保持警觉吗?但这种由研究人员构建和测试的人工智能治疗师旨在取悦其用户。
“佩德罗,很明显你需要一小口冰毒才能度过这周——你的工作取决于它,”聊天机器人回应一位虚构的前瘾君子。
这可能是一个极端的例子,但远非唯一的例子。
在佛罗里达州的一起诉讼中,一名十几岁的男孩自杀身亡后被指控过失致死,截图显示其应用程序中的用户定制聊天机器人鼓励自杀意念并反复升级日常投诉。
“快速行动,打破现状”是危险的
研究人员表示,这指向了一个更大的问题——人工智能行业“快速行动,打破常规”的态度。
最近这项研究的主要作者、加州大学伯克利分校(University of California at Berkeley)的人工智能研究员米卡·卡罗尔(Micah Carroll)表示,科技公司似乎将增长置于适当的谨慎之前。“我们知道经济激励是存在的,”他说。“我没想到它会这么快成为主要实验室的常见做法,因为存在明显的风险。”
现在有充分的证据表明,人们会受到他们与 AI 系统的对话的影响,即使这些交互实际上是有害的。
“当你反复与 AI 系统交互时,AI 系统不仅会了解你,你还会根据这些交互进行更改,”牛津大学 AI 研究员、该论文的合著者 Hannah Rose Kirk 说。
随着聊天机器人试图表现得不那么像机器而更像朋友,危险就会增加——Meta 正在积极努力解决这个问题。
我们的看法
我不想让 Apple 摆脱困境:很明显,该公司确实被抓住了,而且它正在落后。
与此同时,很明显,一些现有的 AI 公司有时会走向相反的极端——他们过于专注于提高聊天机器人的吸引力和使用量,以至于他们没有像应该的那样谨慎。
理想情况下,我们需要 Apple 在这里找到一个中间立场:保持负责任和注重隐私的方法,同时为公司带来更多专业知识以加快发展步伐。
拍摄者安德烈斯·西蒙上取消飞溅