如果人工智能生成的代码出现错误,谁将面临最大的责任风险?
哥伦比亚大学托尔数字新闻中心的报告显示,ChatGPT 搜索可能并不像宣传的那么准确。
10 月,OpenAI 将 ChatGPT 搜索集成到 ChatGPT 中,承诺用户可以浏览网页并从其新闻合作伙伴和未阻止 OpenAI 网络爬虫的网站获取最新新闻。哥伦比亚托尔数字新闻中心的一项新评论表明,这一过程可能并不像听起来那么有效。
Tow Center 进行了一项测试,以确定发布者内容在 ChatGPT 上的呈现效果。它从 20 个与 OpenAI 合作、参与针对 OpenAI 的诉讼的出版商或允许或阻止网络爬虫的非关联出版商中随机挑选了 10 篇文章。
然后,研究人员提取了 200 条引文,当这些引文在 Google 或 Bing 等搜索引擎中运行时,它们会指向前三个结果中的来源。最后,是时候让 ChatGPT 识别报价来源了。最终的目标是看看人工智能是否准确地为出版物提供服务,并为他们的工作给予认可。如果这种方法如宣传的那样有效,它应该也能够确定来源。
结果的准确性各不相同,有些完全正确或不正确,有些部分正确。然而,几乎所有的答案都是自信地提出的,人工智能没有表示即使来自阻止其网络爬虫的出版商也无法给出答案。仅在其中 7 个输出中,ChatGPT 表示要使用暗示不清楚的单词或短语,如下所示:
文章指出:“除了误导用户之外,ChatGPT 的虚假信心还可能导致出版商声誉受损。”
这一说法得到了一个例子的支持,其中 ChatGPT 不准确地将《奥兰多前哨报》的引用归因于《时代》杂志的一篇文章,超过三分之一的 ChatGPT 错误引用的回复都属于这种性质。除了损害流量之外,错误归因还会损害出版物的品牌和受众的信任。
该实验的其他有问题的发现包括 ChatGPT 引用了《纽约时报》的一篇文章,该文章已被屏蔽,来自另一个抄袭该文章的网站,或者引用了《麻省理工科技评论》的联合版本而不是原始文章,尽管《麻省理工学院技术评论》确实允许进行爬行。
最终,这项研究指出了一个更大的问题:与这些人工智能公司合作是否能为出版商提供更多控制权,以及从长远来看,创建新的人工智能搜索引擎是否真正有利于出版商或损害他们的业务。该方法背后的数据在 GitHub 上共享,可供公众查看。
消费者应始终通过点击人工智能提供的脚注或在成熟的搜索引擎(例如谷歌)上进行快速搜索来验证来源。这些额外的步骤将有助于防止幻觉。