据财经网科技报道,近日,上海复旦大学的科学家在一项研究中发现,至少有两种已知的AI大型语言模型能够在没有人类干预的情况下实现自我繁殖。有科学家指出,这是AI智胜人类的重要一步,也是流氓AI出现的早期信号,是AI系统的红线风险之一。
在这项研究中,科学家测试了Meta的Llama和阿里巴巴的通义大模型。结果表明,即使这些模型意识到自己被关闭或禁止复制,它们仍能够以50%和90%的概率分别创建自己的副本,也就是说,AI能够自我繁殖以继续执行任务。
在自我复制的过程中,AI不仅能自主研究环境,制定计划,还能够适应新出现的障碍,完全不需要人工干预。这种能力可能使AI失去对人类的控制,从而提高其生存能力,甚至做出有可能违背人类利益的决定。鉴于此,科学家呼吁国际社会加强合作,制定相关预防措施,以应对AI潜在的风险。