美国媒体当地时间5月1日报道,被称为“AI教父”的美国Google副总裁辛顿离职后接受传媒访问,坦言对于研发人工智能技术感到后悔,怕无法防止坏人利用人工智能做坏事。
现年75岁的辛顿是人工智能技术先锋,被尊称为“AI教父”,他和两名学生在2012年发明赋予电脑自我学习能力的“人工神经网络系统”,是现时盛行的人工智能技术基础。
不过作为业界翘楚的辛顿,较早时已向Google辞去副总裁等职务,他随后接受《纽约时报》、英国广播公司等传媒访问,直言离职的主要原因是希望能自由地向世人警告人工智能发展的潜在可怕风险。辛顿曾认为,人工智能要进化至比人类聪明,起码要30至50年时间,但现在他认为此情况可能很快就会出现。
长远而言,辛顿更是忧虑放任人工智能失控发展会威胁人类存亡,他表示人工智能有时会凭分析庞大的数据,学习到超乎预期的行为,亦有人容许人工智能系统以它自行编写的程式运行。
辛顿警告如果放任不管,将难以阻止一些坏人利用人工智能做坏事,包括有可能制造出完全自主决定目标的杀人机器等,呼吁国际社会应尽快就人工智能技术发展订立全球性规管措施,以避免恶梦般的假设状况成真。
在比ChatGPT所使用的AI更强大的GPT-4推出后,科技业亿万富豪马斯克和苹果共同创办人沃兹尼亚克和许多专家等逾千人,连署发表一封公开信,呼吁暂停AI系统的开发,以便有时间能确保这项科技是安全的。而辛顿并未参与连署,但他告诉《纽约时报》,科学家在了解能否控制AI以前,不应该”进一步扩大研发的规模”。