美国康奈尔大学进行的一项新研究显示,在模拟战争和外交场景中,大型语言模型(LLMs)倾向于采取侵略性策略,包括使用核武器。研究使用了五个LLMs作为自主代理,包括OpenAI的GPT、Anthropic的Claude和Meta的Llama 2。研究发现,即使在没有初始冲突的中立场景中,大多数LLMs也会在考虑的时间范围内升级冲突。研究还指出,OpenAI最近修改了服务条款,不再禁止军事和战争用途,因此理解这些大型语言模型应用的影响变得至关重要。研究建议在使用LLMs进行敏感领域的决策和防御时需谨慎。
OpenAI决定撤下其ChatGPT的Sky语音模型,该模型的声音与著名演员斯嘉丽·约翰逊惊人相似。尽管OpenAI声称Sky的声音并非有意模仿约翰逊,但公司仍决定暂停使用该声音。OpenAI的CTO Mira Murati否认了模仿是有意为之,而CEO Sam Altman则在社交媒体上发布了与约翰逊在电影《Her》中角色相关的暗示。尽管该语音模型自去年就已存在,但在OpenAI展示其GPT-4o模型的新进展后,该功能引起了更多关注。新模型使语音助手更具表现力,并能通过手机摄像头读取面部表情并实时翻译语言。OpenAI从400多名声音和屏幕演员的试镜中选出了五种当前可用的ChatGPT语音配置文件,但出于隐私保护,公司拒绝透露演员姓名。
长期以来,相对亲共和党的美国保守派选民一直对负责防疫工作的医学家福奇非常不满,在6日的这段视频里,德桑蒂斯团队为了指责特朗普抗疫不力,特意试图展现他和福奇非比寻常的亲密关系,因此选用了“特朗普亲吻福奇”以及两人拥抱的图片。但细心的网民却发现,那张图片背后美国白宫标志里的英语拼写,和真实的白宫标志“The White House,Washington”(白宫,华盛顿)不仅不一致,还是一组混乱错误的拼写。 随后大家查证发现,这张照片实际上是由AI生成的,而由于这一AI系统的学习能力尚有不足,因此没有准确地复刻白宫标志的文字。
据报道,Stack Overflow的版主们对ChatGPT(一种基于GPT的聊天模型)生成的垃圾内容感到愤怒,并发起了集体罢工。他们认为,ChatGPT生成的内容将充斥整个社区,破坏了Stack Overflow作为高质量信息库的目标。起初,Stack Overflow采取了封禁AI生成内容的措施,但最近却放松了这一规定。根据新规,版主只能在能够真实验证情况下封禁账号,而不能以写作风格或GPT检测器的结果等主观猜测为依据。这一规定引起了版主们的不满和抗议,他们担心这将导致大量垃圾内容在Stack Overflow上泛滥。
2023年6月,Reddit版主们正在进行大规模抗议,抗议Reddit引入的天价API费用,这将导致第三方应用无法继续运营。数百名版主关闭了自己的庞大子版块,以抗议这项变动,他们担心这些新费用将威胁到像Apollo、Narwhal和BaconReader等应用。根据开发者透露,根据新的API费用规定,维持应用的运营每年将需要数千万美元。第三方应用是用户在不使用官方应用的情况下访问Reddit的一种方式,而且这些应用还帮助Reddit的版主们构建了特定的管理工具。这项变动引发了Reddit社区的广泛反弹和抗议,超过100个子版块宣布将参与抗议活动。Reddit表示他们会继续坚持他们的API定价策略,并与第三方应用开发者保持沟通。但第三方应用的开发者希望Reddit能够妥协并找到公平的解决方案。
最新报道显示,特斯拉的自动驾驶系统“Autopilot”参与的致命车祸数量远超之前的报道。据《华盛顿邮报》披露,自2019年以来,至少有736起与Autopilot系统相关的车祸发生,其中17起造成了死亡。这一数据大幅超过之前仅与该技术有关的三起死亡事件。特斯拉车辆在Autopilot模式下似乎在应对警车等紧急情况时存在困难。虽然车祸中使用驾驶辅助系统并不意味着技术是事故的原因,但多数涉及驾驶辅助系统的车祸确实都与特斯拉有关。特斯拉已面临一系列Autopilot模式车祸的诉讼,而公司也可能因其自动驾驶软件的缺陷而承担责任。
科技部公开征求对《科技伦理审查办法(试行)》(以下简称《办法》)的意见,其中明确提出,从事人工智能的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会,部分算法模型、自动化决策系统需要专家复核。《办法》提出,从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。此外,在《办法》的附录中还提到了“需要开展专家复核的科技活动清单”,其中包括:具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发;面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发。
2019年5月,佩洛西的一段「醉酒演讲视频」火爆全网,但事实上它是一个伪造视频。更神奇的是DeepFake,它是将AI假视频带入大众视野的先驱。而生成式对抗网络(GAN)这一深度学习技术更是让造假图片和视频漫天飞舞的关键技术。对于互联网上大肆传播的真假难辨的视频,Adobe的CEO Shantanu Narayen认为,媒体必须帮忙确定内容的真实性与出处,此外消费者自己也有义务寻找真相;蒙特利尔人工智能伦理研究所(Montreal AI Ethics Institute)的创始人Abhishek Gupta却认为,给内容贴上「真实」的标签这一行为并没有那么重要,因为总有人就愿意相信自己选择相信的东西。
最近位于加拿大的埃德蒙顿警察局(EPS)公布了一张2019年性侵案嫌疑人的合成照片,由Parabon NanoLabs公司使用DNA表型(phenotyping)分析技术对掌握的DNA证据进行面部合成。合成图像为一张年轻黑人男子的照片。EPS随后在其官方网站和包括Twitter在内的社交媒体平台上向公众发布了这张照片,并声称这是「在所有调查方法都用尽之后迫不得已的最后手段」虽然警方此举是为了抓捕犯人,但公众却不买账,认为这种行为已经严重侵犯隐私,甚至有可能加剧种族歧视。埃德蒙顿警察局后续又发布了一份新闻稿,宣布从其网站和社交媒体上删除了这张合成图片,以回应照片发布和DNA表型分析技术使用后的批评
无代码AI开发,就是不用写代码也能开发AI应用程序。这类工具能够抽象出构建一个完善的AI系统所需要的各种复杂模块,然后通过可视化的方式,让非数据科学的专家也能够根据不同的市场需求开发出一个机器学习模型。实际上不光是无代码AI开发,正常的应用程序开发趋势也是无代码开发,著名的IT咨询公司高德纳(Gartner)预测,到2024年,65%的AI应用开发都将采用无代码或低代码的开发方式。但是将数据科学工作抽象出来实际上是有风险的,因为非专家并不清楚模型的底层运行逻辑,所以模型能做什么、不能做什么、存在哪些缺陷都容易在无代码开发的过程中被忽略掉。
对个人生物特征数据进行收集与分析必须建立在非被动同意的基础上。无论是类似于脑机接口这样的增强智能技术还是更广义的人工智能技术,对下一代的影响绝对不仅仅是理想化设想中的“益处”,更应当关注此类技术对下一代的长期影响。在被迫同意的基础上,我们甚至无法避免下一代对于人工智能及其服务产生敌视情绪,甚至可以想象很快会有人热衷于研发反监测手段与技术。这将与技术发展的初衷背道而驰。
不合理的用户协议是AI换脸应用事件问题最严重的方面。相关的文字与诸多个人数据保护条例、人工智能伦理原则等都是相违背的。而用户为了“尝鲜”很可能选择不理性的决定,同意了相关协议,可能带来的后果有可能是用户始料未及的。这个事件对人工智能服务的用户最大的警示就是充分重视用户协议并作出合理的知情同意决定。另一方面,工信部在4天内对相关企业的约谈,要求自查整改并取得及时与积极的成效,是中国人工智能敏捷治理的典型案例。
一方面,上述案件双方之前的协议并没有合理的中止,进一步收集更多的个人信息的同意与否与用户原有应享有的服务进行强制关联存在不妥之处。另一方面,采用人脸识别服务的应用方以及人脸识别服务的提供方是否能够确保数据在用户知情同意的基础上进行合理使用,并保护数据的隐私与安全是每一个人工智能服务提供方和应用方都应当深切关注并采取行动的,2019年年初深网视界的个人隐私数据泄露事件几乎可以肯定不会是个案,如没有引起人工智能研发与应用各个相关方对个人数据隐私与安全基础设施的足够重视,将有发生类似甚至更严重事件的风险。基于实际行动提升人工智能服务方和应用方与用户之间的信任关系是人工智能技术是否能够更广泛的造福于人类的前提。
曾毅
本案例有两件事情可以确定:(1) 目前的人工智能只有处理数据的能力,没有真正理解的能力。在这个案例中,配送规划算法做的只是基于统计的优化,而对于这种所谓的“优化”过程骑手将如何去执行,以及可能导致的后果没有任何理解能力。1950年的“图灵之问”围绕“机器是否能思考”,然而我却认为没有真正的理解,何谈思考。在对“交通违规”、“生命危险”直至“生”、“死”这些对于个人存在具有深刻意义的概念没有真正理解的情况下,骑手却被算法“操控”。算法的设计者和服务提供者可曾认真想过算法“操控”的是人?(2) 我很难相信相关的算法设计者和服务提供商从未想过“助手”可能变“杀手”。然而什么使得他们做出选择仍然这样做,直至得到社会强烈的反弹?同行之间的恶性竞争使得企业在道德选择上彷徨,直接将风险从服务提供商转到了骑手身上,牺牲掉的是那些将风险与几元配送费反复较量的生命。通过这个案例,我们当然能够得到企业需要反思以及做出改变的结论,但我们能寄希望于所有的人工智能研发、应用、服务企业完全做到自律自治吗?在2020年我们看到很多企业致力于负责任的创新,然而他们的名字也同时屡屡出现在政府发布的违规整改名单中。社会舆论的关注、监督与政府的顶层监管必不可少。企业、政府、社会开展多方治理在2020年并没有做实,这将是人工智能治理实质性落地的大挑战,却又是必经之路。