德国亚琛工业大学Grok滥用事件引发AI监管讨论

近几周,X平台(前身为Twitter)的人工智能聊天机器人Grok因用户利用其生成女性与儿童的色情图像而深陷争议漩涡。该平台所有者、美国亿万富翁埃隆·马斯克起初仅将图像生成功能限制为付费用户使用,如今则推出了更严格的限制措施,全面禁止生成真实人物的色情图像。据该公司称,目前已部署新的技术防护机制。本文将透过对人工智能专家、德国亚琛工业大学教授霍尔格·胡斯的专访,探讨此事件背后的深层影响,解释其为何应成为欧洲的警钟,并阐述公众应如何培养审辨人工智能生成内容的关键能力。

霍尔格·胡斯现任亚琛工业大学洪堡讲席教授,并与塞巴斯蒂安·特林佩教授共同担任该校人工智能中心理事会主席。

问:Grok的滥用是孤立事件还是系统性问题?
这显然不是个案。根本问题在于这类系统本身存在被滥用的可能性。人工智能工具功能强大,一旦广泛普及,滥用行为几乎难以避免。当然,此类行为在道德上应受谴责,用户必须承担责任,但仅靠追责无法根治问题。

我个人支持英国政府考虑全面封禁X平台的举措,也乐见其他欧洲国家采取类似措施。这一事件应当成为真正的警钟。欧洲必须自问:是否要继续依赖外来平台?还是终于要投资构建基于自身价值观的替代方案?我们对数字主权的信心亟待加强。

问:深度伪造技术如今发展到何种程度?识破难度有多大?
深度伪造已臻于以假乱真之境。早在该技术出现前,照片在法律上就仅能作为有限证据。视频很快也将面临同样处境。人工智能生成或篡改的影像已精妙到常令人无法相信自己的眼睛。语音模仿同样惟妙惟肖,真实度惊人。保持持续警惕至关重要。

问:公众应如何学会识别人工智能生成图像?青少年需接受怎样的教育?
当图像与视频经过专业处理,人类仅凭肉眼往往极难——有时甚至不可能——辨别真伪。专用人工智能工具虽可辅助识别篡改内容,但对个人而言,批判性思维才是核心能力。

若所见内容违背常理或现实中几乎不可能发生,就应心生警惕。我们必须习惯对所见所闻保持质疑。这不仅适用于图像视频,同样适用于文本。批判性思维在当今时代的重要性前所未有。

问:这意味着我们需要主动培养这类技能?
毫无疑问。多项研究已表明,过度依赖人工智能可能导致所谓“思维惰性”。这对中小学、大学乃至整个社会都是严峻挑战。

问:人工智能是否需要更严格的监管?
作为社会整体,我们必须审慎思考:应何时以何种方式允许儿童接触人工智能?他们是否具备识别和处理社交媒体操纵的能力?我认为澳大利亚禁止16岁以下未成年人使用社交媒体的决策值得借鉴,欧洲应认真考虑类似措施。

问:有用户尝试通过禁止人工智能系统使用其图像以寻求保护,这种方法有效吗?
很遗憾,无效。这种想法源于对现代人工智能系统运作方式的误解。虽可通过网站代码添加技术指令以限制搜索引擎或人工智能模型抓取内容,但无法保证这些规则被遵守。对于图像和视频,我完全不建议依赖此类措施。

问:还有哪些方法能防止个人图像被滥用?
年轻人尤其容易轻率地在网络分享照片及个人内容,往往忽略长远后果。早在人工智能出现前,人们就常低估此类风险——例如派对照片在入境美国海关或求职面试时突然出现。

网络隐私存在一种天真幻想,尤其在社交媒体平台,这与现实严重脱节。我的建议是:上传任何内容前务必深思熟虑。这同样适用于WhatsApp等通讯服务。请仔细阅读平台服务条款,了解对方对您的内容主张何种权利,再决定是否真正愿意分享。

几乎所有未明确排除的内容都可能被用于训练人工智能系统。研究显示,训练数据可能在未来生成的输出中再现。因此,人们在分享高度个人信息——尤其是向聊天机器人透露时——务必三思而后行。