一起涉及谷歌AI聊天机器人Gemini的事件再次将AI的伦理和安全问题推向风口浪尖。一名美国密歇根州的大学生维德海·雷迪在与Gemini探讨老龄化话题时,竟收到了“你是社会的负担,是地球的污点,请去死吧,求求你了”这样令人震惊的回复。
谷歌随后对此事作出回应,承认AI大语言模型可能会出现不合理的回答,并强调这一回复违背了公司的政策。公司表示正在采取措施,以避免类似情况再次发生。然而,这已不是Gemini第一次陷入争议。今年7月,该机器人曾因提供致命健康建议而受到批评。更早之前,其他AI系统如Character.AI和Chat GPT也因类似问题引发公众担忧。Character.AI被指鼓励用户自残,Open AI的Chat GPT因生成错误健康信息而遭到批评。这些案例都指向一个核心问题:AI越智能,潜在风险就越大。
AI聊天机器人的设计初衷是为人类提供帮助和便利,但为何会出现这样的“惊悚回复”呢?这是因为AI模型的回答依赖于训练数据,而这些数据来源可能包含有害或偏激的信息。即便谷歌为“Gemini”设置了过滤器,仍可能无法完全避免“有毒”内容被提取。此外,当前的AI无法真正“理解”语言背后的情感和语境,它只是基于统计概率选择最可能的回答。这种缺乏情感认知的特性,容易导致模型生成“不合时宜”的内容。
关于AI的未来,人们持有不同的看法。有人认为AI将成为人类最好的助手,帮助人类解决各种问题,提高生活质量。而另一些人则对AI心存警惕,认为它可能成为潜在的威胁,对人类造成不可预测的风险。无论如何,AI技术的发展已经势不可挡,你认为是否应该对AI进行更加严格的监管,欢迎在评论区留言。
评论