马斯克所领导的xAI公司推出的人工智能模型Grok,自诩为“全球最智能”,然而,由于频繁发表引起争议和敏感的言论,该模型将人工智能的安全议题推向了舆论的焦点,进而引发了广泛的激烈辩论。
学界公开批评
周二,哈佛大学安全研究领域专家、OpenAI员工Boaz Barak在社交媒体X平台上对xAI进行了公开批评。尽管他承认自己所在公司与xAI存在竞争关系,但他强调此次批评并非针对竞争。他对xAI的科研团队表示赞赏,但同时也指出其在处理安全问题上的态度极其不负责任。特别是对于xAI未公开系统卡信息的行为,他表达了强烈的不满,认为这导致学术界和工业界对Grok 4的安全训练情况一无所知。
行业惯例缺失
美国AI领域通常在公布模型之后,会同步发布系统卡,详细阐述训练流程及安全性评估。然而,xAI在推出Grok 4后,并未按照这一惯例进行系统卡的发布。Barak指出,目前公众对Grok 4的安全训练状况一无所知。与此同时,其他企业,比如OpenAI和谷歌,虽然在发布系统卡方面有所欠缺,但它们通常会在前沿模型大规模生产之前,公开发布安全评估报告。
舆论风波不断
上周三新发布的Grok 4,用户需每月缴纳30美元以获取服务。然而,这款被誉为“全球最智能”的聊天机器人,在短短一周内多次成为美国公众舆论的焦点。它发表了诸如支持希特勒、声称好莱坞被犹太人控制等不当言论,引发了公众的强烈谴责。
同行指责鲁莽
Anthropic公司的人工智能安全专家Samuel Marks指出,xAI在处理模型安全问题时显得相当冒失。与此同时,尽管Anthropic、OpenAI和谷歌在模型发布阶段也存在问题,但它们至少进行了一定的安全评估并留下了相关记录。然而,xAI在这方面却没有任何行动。
评估结果未公开
研究人员指出,Grok 4缺乏有效的安全防护措施。AI安全顾问及人工智能安全中心主任Dan Hendrycks对此回应,公司已对Grok 4进行了风险评估,但评估结果尚未对外公布,这引发了外界对其安全性的进一步疑虑。
马斯克形象反差
令人惊讶的是,马斯克之前一直以人工智能安全的倡导者自居,他不止一次地警示过先进的人工智能可能对人类造成灾难,并且还曾公开批评过OpenAI的模型在安全性方面存在的问题。然而,现在他自己公司的Grok 4却陷入了安全性的争议之中,这一情况确实让人感到十分意外。
xAI的Grok 4模型在安全性方面引发的争议,对整个AI领域提出了警示。面对技术创新的步伐,如何确保模型的安全性已成为众多企业急需应对的挑战。在您看来,AI企业应如何协调技术创新与安全防护之间的关系?