界面新闻记者 |
界面新闻编辑 | 刘方远
随着AGI(通用人工智能)等话题日益火热,AI安全的重要性也在快速提升。这背后,是全球范围内的企业、机构与个人对AI造成的技术恶用、滥用问题的重视与警惕。
6月21日,瑞莱智慧(下称“RealAI”)正式发布了全球首个可实时检测AI合成内容的工具RealBelieve。
这是一款针对个人用户的产品,可以提供主动实时检测防护。例如它可以鉴别视频通话中人脸的真伪,或是在用户浏览网页时提示内容是否由AI合成。目前,该产品已启动内测招募。
最近一段时间,AI技术在填补众多行业效率需求空缺的同时,也滋生了大量安全隐患,比如利用AI技术换脸、合成声音等的诈骗行为频发。
2024年年初,香港警方向社会公布了一起诈骗案件。在一场使用Deepfake技术“AI换脸”和AI音频合成的“高管会议”中,一家英国跨国企业香港分公司的职员受到视频内容的欺骗,向犯罪嫌疑人指定的本地账户陆续汇出2亿港币,此事在五日后才被揭穿并曝光。
面对这种新型高科技技术犯罪,大型机构尚且缺乏有效工具及时辨别,遑论普通个体。
RealAI此前曾开展过AI合成检测技术研究和产品研发,推出了生成式人工智能内容检测平台DeepReal、人脸AI安全防火墙RealGuard等相关产品。
此次推出的RealBelieve主要提升了两方面能力,一是多模态检测能力,用户可以上传文本、图片、视频和音频等多种内容进行监测;二是把滞后的被动检测转变为主动检测,比如可以通过浏览器插件的形式提示用户所浏览网页中疑似AI合成的内容,并在视频通话过程中鉴别对方人脸是否存在AI合成风险。
RealAI联合创始人、算法科学家萧子豪对界面新闻表示,该产品背后的检测模型是基于贝叶斯深度学习技术开发,团队打造了一系列多模态AIGC检测技术体系,根据各类AI合成线索进行不确定性推理决策。
在多模态AIGC(人工智能生成内容)技术进化的过程中,生成技术与检测技术其实在同步发展。在GPT、LIama、DALL-E-3等模型和算法的不断升级下,AIGC技术得到了促进,与此同时,也有Detect GPT、De-Fake、Detect-Vocoder等相应的AI检测技术陆续出现。这是AI安全领域一种必要的对抗。
不过,RealAI CEO田天指出,在整个AI安全领域,对于AIGC内容的监控检测只是作为基础功能的一部分。除此之外,在AI的数据准备、模型训练以及模型应用等各个环节,都有其各自的一系列安全问题。
总体来说,AI安全问题可以分为三个层次。第一层是AI技术本身要安全可信;第二层是AI技术的正义性,防止被滥用;第三层是面向未来超级智能的AI安全。
OpenAI前首席科学家Ilya Sutskever曾表示,当前的AI安全问题已经到了非常迫切的程度,如果不采取相应措施,很可能就错过时机,而在这之后基本不存在亡羊补牢的可能性。
事实上,Ilya Sutskever在OpenAI发起的“超级对齐”项目正是针对这一担忧。从OpenAI离职后,他创立了一家名为“安全超级智能”(SSI-Safe Superintelligence)的人工智能公司,计划开发出比人类更聪明但不危险的人工智能技术。
按照Ilya Sutskever之前接受采访的说法,未来超级智能看待人类的状态,很有可能就是现在人类看待动物的状态。而在人类几百万年与自然界交互的历程中,从未出现过一个智能水平更低的物种能够控制、约束智能水平更高物种的情形。
因此,商业公司在蒙眼狂奔的过程中,如果缺乏对AI安全治理的足够重视和投入,很可能在没有边界的情况下造成一系列潜在危害。
“随着超级智能越来越接近,在AI安全领域,我们要确保将来的超级智能体能够跟人类和谐相处。”田天说,“简单来说就是要让它更像人类,具备人类的价值观。”
相较于全球范围内的多个国家与企业对AI安全的重视与投入程度,田天表示,目前国内在这片产业上的整体投入仍然相对落后,但阿里、腾讯、百度等大厂以及智谱AI等创业公司,都在加大投入力度。