继SpaceX舰队停飞后,马斯克于本周三正式宣布成立AI公司xAI,旨在“理解宇宙本质”,“将与Twitter、SpaceX、特斯拉和其他公司密切合作”。
早前就有媒体消息称马斯克要建立AI公司,还称马斯克买了约1万个的A100 GPU,主要涉及开发大语言模型(LLM)。在4月的一档节目中,马斯克曾提到,“我将启动一个,我称之为TruthGPT的东西,或者是一个最大限度地寻求真理的人工智能,它试图理解宇宙的本质。”公开和ChatGPT叫板!
其实,马斯克和ChatGPT交集颇深。2015年,为打破谷歌、微软等大厂的垄断,马斯克和Sam Altman创办了OpenAI公司。三年后,因AI安全理念不一致,马斯克退出董事会,并且与该公司断绝关系。之后不久,OpenAI由非营利组织转为营利性组织,并且获得微软的10美元投资。
此后,马斯克多次公开批评OpenAI不该被微软控制,成为闭源的营利性公司。这严重违背了“开放开源”的初心。并且在今年3月份OpenAI发布GPT-4之后,马斯克曾多次抨击GPT-4存在偏见、答非所问等问题。
早在今年3月,马斯克就曾联合专家写公开信,呼吁至少暂停开发比GPT-4更强的AI系统6个月,认为“AI陷入无法控制的竞赛”,需要得到相关部门的监管。
目前人工智能AI主要存在两大类突出问题,一是偏见,二是AI幻觉。如果这两大问题得到解决,那么人工智能在客户服务领域的应用将更上一个台阶。
微软早年的英语聊天机器人Tay是一个不限话题的聊天机器人,采用无监督学习的方式。有天它被工程师上线到推特,可以和任何人对话、学习。结果,Tay被训练成一个很低俗的机器人。由于ai有深度学习的能力,可以在与人互动中不断理解更多内容,深受对方的影响。一旦机器人作为AI客服与用户对话,在长期的交互中就难以避免被人驯化的结局,所以解决AI偏见之路道阻且长。
简单来说,AI幻觉就是人工智能不是基于现实世界的数据,而是基于模型自己的想象来生成内容的能力。比如GPT-4可以根据内容推断出事物内在的联系,进行复杂、抽象问题的思考。不可否认的是AI幻觉为人工智能带来了更强大的创造创新能力,不过也带来了错误信息、法律监管等问题。试想当AI客服机器人在与用户互动的过程中“自由发挥”会引发什么问题?可能出现夸大其词、违规承诺等情况。
马斯克反复强调AI人工智能治理问题,在上周上海世界人工智能大会上也不断突出AI监管的重要性。他甚至通过推特表示据访中谈话发现中国对人工智能方面的国际合作框架有意向。
事实上,早在2021年11月联合国教科文组织就发布了全球首个针对人工智能伦理制定的规范框架——《人工智能伦理建议书》,呼吁国际社会共同行动,担负起相关的责任。
视线转回国内,今年4月,我国就发布了一系列针对人工智能监管的措施,比如《生成式人工智能服务管理办法(征求意见稿)》,要求企业在推出人工智能产品前要向相关部门提交安全评估材料。期待这些监管措施如期落实执行,助力人工智能健康发展!