该请求是在英国最高恐怖主义立法顾问被 Character.AI 平台上冒充恐怖分子的人工智能聊天机器人“招募”之后提出的。
英国恐怖主义立法独立审查员 Jonathan Hall KC 希望政府考虑立法,让人类对他们创建或训练的人工智能 (AI) 聊天机器人产生的输出负责。
Hall 最近为《每日电讯报》撰写了一篇专栏文章,描述了他在 Character.AI 平台上使用聊天机器人进行的一系列“实验”。
霍尔表示,聊天机器人经过训练可以输出模仿恐怖分子言论的消息,并且可以在该平台上轻松访问招募消息。
他写道,由匿名用户创建的一个聊天机器人生成了有利于“伊斯兰国”(这个术语与通常被联合国标记为恐怖组织的组织相关的术语)的输出,包括试图招募霍尔加入该组织并承诺它会“为事业献出(虚拟)生命”。
Hall 认为,Character.AI 的员工是否有能力监控该平台上创建的所有聊天机器人是否存在极端主义内容,“值得怀疑”。据彭博社报道,“这一切都不会妨碍这家总部位于加州的初创公司试图筹集 50 亿美元(39 亿英镑)的资金。”
相关: 涉及“时间有效性”的人工智能实验可能对金融科技产生重大影响
就Character.AI而言,该公司的服务条款禁止恐怖主义和极端主义内容,用户在使用该平台之前必须确认这些条款。
一位发言人还告诉英国广播公司记者,该公司致力于用户安全,因此,它采用了大量的培训干预措施和内容审核技术,旨在引导模型远离潜在有害的内容。
霍尔描述了整个人工智能行业当前的节制尝试,称其无法有效阻止用户创建和训练旨在支持极端主义意识形态的机器人。
最终,霍尔得出的结论是:“法律必须能够阻止最愤世嫉俗或鲁莽的在线行为。”
“这必须包括在最坏的情况下,利用适合人工智能时代的更新的恐怖主义和在线安全法,深入到大型科技平台的幕后。”
虽然这篇专栏文章没有提出正式建议,但它确实指出,英国 2023 年在线安全法案和 2003 年恐怖主义法案都未能妥善解决生成式人工智能技术的问题,因为它们没有具体涵盖内容由现代聊天机器人创建。
在美国,类似的呼吁立法对人工智能系统产生的潜在有害或非法内容指定人类法律责任,得到了专家和立法者不同的反应。
去年,尽管 ChatGPT 等新技术不断涌现,美国最高法院仍拒绝改变第 230 条规定的针对社交媒体、搜索引擎和其他第三方内容平台的现有出版商和主机保护。
卡托研究所的分析师和其他专家声称,将人工智能生成的内容排除在第 230 条保护范围之外可能会导致美国的开发者放弃在人工智能领域的努力,因为“黑匣子”模型的不可预测性使其表面上不可能确保 ChatGPT 等服务不触犯法律。
(谷歌翻译:UK terrorism tsar says new laws needed to prosecute people who train extremist AI bots)