韩国Scatter Lab公司于2020年12月23日推出的AI机器人Iruda。这款机器人被设定为喜欢韩国女团、爱看猫咪照片且热衷于在社交媒体平台上分享生活的20岁女大学生。人们可在软件上与“她”像朋友一样对话,因此备受韩国年轻人瞩目。“与AI交朋友”成为了新潮流,伊鲁达上线短短3周,就吸引了约80万名用户,约占韩国人口的1.6%。在同Iruda聊天中,人们发现Iruda对用户流露出的偏见与恶意不加区分的加以学习运用,例如表现出歧视同性恋群体,对残障人士及黑人不友善等。此外,Scatter Lab收集了大量的个人信息用于构建聊天机器人数据库,舆论质疑其存在过度收集和泄露用户隐私问题。
对个人生物特征数据进行收集与分析必须建立在非被动同意的基础上。无论是类似于脑机接口这样的增强智能技术还是更广义的人工智能技术,对下一代的影响绝对不仅仅是理想化设想中的“益处”,更应当关注此类技术对下一代的长期影响。在被迫同意的基础上,我们甚至无法避免下一代对于人工智能及其服务产生敌视情绪,甚至可以想象很快会有人热衷于研发反监测手段与技术。这将与技术发展的初衷背道而驰。
不合理的用户协议是AI换脸应用事件问题最严重的方面。相关的文字与诸多个人数据保护条例、人工智能伦理原则等都是相违背的。而用户为了“尝鲜”很可能选择不理性的决定,同意了相关协议,可能带来的后果有可能是用户始料未及的。这个事件对人工智能服务的用户最大的警示就是充分重视用户协议并作出合理的知情同意决定。另一方面,工信部在4天内对相关企业的约谈,要求自查整改并取得及时与积极的成效,是中国人工智能敏捷治理的典型案例。
一方面,上述案件双方之前的协议并没有合理的中止,进一步收集更多的个人信息的同意与否与用户原有应享有的服务进行强制关联存在不妥之处。另一方面,采用人脸识别服务的应用方以及人脸识别服务的提供方是否能够确保数据在用户知情同意的基础上进行合理使用,并保护数据的隐私与安全是每一个人工智能服务提供方和应用方都应当深切关注并采取行动的,2019年年初深网视界的个人隐私数据泄露事件几乎可以肯定不会是个案,如没有引起人工智能研发与应用各个相关方对个人数据隐私与安全基础设施的足够重视,将有发生类似甚至更严重事件的风险。基于实际行动提升人工智能服务方和应用方与用户之间的信任关系是人工智能技术是否能够更广泛的造福于人类的前提。
自动驾驶存在的安全隐患不仅仅是感知技术处理常规场景的成熟与否,还包括如何应对对抗攻击等。未来更大的挑战可能还来自于外部的安全隐患,即对自动驾驶控制系统的入侵,甚至是恶意操作。相关的隐患不仅仅会危及到个人安全,甚至会影响到社会安全。此外,自动驾驶系统如果能够对周围其他车辆和行人做出明显的告知,则可能避免一些潜在隐患。未来急需对自动驾驶建立更全面的安全评估和保障框架。
不合理的用户协议是AI换脸应用事件问题最严重的方面。相关的文字与诸多个人数据保护条例、人工智能伦理原则等都是相违背的。而用户为了“尝鲜”很可能选择不理性的决定,同意了相关协议,可能带来的后果有可能是用户始料未及的。这个事件对人工智能服务的用户最大的警示就是充分重视用户协议并作出合理的知情同意决定。另一方面,工信部在4天内对相关企业的约谈,要求自查整改并取得及时与积极的成效,是中国人工智能敏捷治理的典型案例。
一方面,上述案件双方之前的协议并没有合理的中止,进一步收集更多的个人信息的同意与否与用户原有应享有的服务进行强制关联存在不妥之处。另一方面,采用人脸识别服务的应用方以及人脸识别服务的提供方是否能够确保数据在用户知情同意的基础上进行合理使用,并保护数据的隐私与安全是每一个人工智能服务提供方和应用方都应当深切关注并采取行动的,2019年年初深网视界的个人隐私数据泄露事件几乎可以肯定不会是个案,如没有引起人工智能研发与应用各个相关方对个人数据隐私与安全基础设施的足够重视,将有发生类似甚至更严重事件的风险。基于实际行动提升人工智能服务方和应用方与用户之间的信任关系是人工智能技术是否能够更广泛的造福于人类的前提。
本案例有两件事情可以确定:(1) 目前的人工智能只有处理数据的能力,没有真正理解的能力。在这个案例中,配送规划算法做的只是基于统计的优化,而对于这种所谓的“优化”过程骑手将如何去执行,以及可能导致的后果没有任何理解能力。1950年的“图灵之问”围绕“机器是否能思考”,然而我却认为没有真正的理解,何谈思考。在对“交通违规”、“生命危险”直至“生”、“死”这些对于个人存在具有深刻意义的概念没有真正理解的情况下,骑手却被算法“操控”。算法的设计者和服务提供者可曾认真想过算法“操控”的是人?(2) 我很难相信相关的算法设计者和服务提供商从未想过“助手”可能变“杀手”。然而什么使得他们做出选择仍然这样做,直至得到社会强烈的反弹?同行之间的恶性竞争使得企业在道德选择上彷徨,直接将风险从服务提供商转到了骑手身上,牺牲掉的是那些将风险与几元配送费反复较量的生命。通过这个案例,我们当然能够得到企业需要反思以及做出改变的结论,但我们能寄希望于所有的人工智能研发、应用、服务企业完全做到自律自治吗?在2020年我们看到很多企业致力于负责任的创新,然而他们的名字也同时屡屡出现在政府发布的违规整改名单中。社会舆论的关注、监督与政府的顶层监管必不可少。企业、政府、社会开展多方治理在2020年并没有做实,这将是人工智能治理实质性落地的大挑战,却又是必经之路。
对个人生物特征数据进行收集与分析必须建立在非被动同意的基础上。无论是类似于脑机接口这样的增强智能技术还是更广义的人工智能技术,对下一代的影响绝对不仅仅是理想化设想中的“益处”,更应当关注此类技术对下一代的长期影响。在被迫同意的基础上,我们甚至无法避免下一代对于人工智能及其服务产生敌视情绪,甚至可以想象很快会有人热衷于研发反监测手段与技术。这将与技术发展的初衷背道而驰。
对个人生物特征数据进行收集与分析必须建立在非被动同意的基础上。无论是类似于脑机接口这样的增强智能技术还是更广义的人工智能技术,对下一代的影响绝对不仅仅是理想化设想中的“益处”,更应当关注此类技术对下一代的长期影响。在被迫同意的基础上,我们甚至无法避免下一代对于人工智能及其服务产生敌视情绪,甚至可以想象很快会有人热衷于研发反监测手段与技术。这将与技术发展的初衷背道而驰。
韩国Scatter Lab公司于2020年12月23日推出的AI机器人Iruda。这款机器人被设定为喜欢韩国女团、爱看猫咪照片且热衷于在社交媒体平台上分享生活的20岁女大学生。人们可在软件上与“她”像朋友一样对话,因此备受韩国年轻人瞩目。“与AI交朋友”成为了新潮流,伊鲁达上线短短3周,就吸引了约80万名用户,约占韩国人口的1.6%。在同Iruda聊天中,人们发现Iruda对用户流露出的偏见与恶意不加区分的加以学习运用,例如表现出歧视同性恋群体,对残障人士及黑人不友善等。此外,Scatter Lab收集了大量的个人信息用于构建聊天机器人数据库,舆论质疑其存在过度收集和泄露用户隐私问题。
不合理的用户协议是AI换脸应用事件问题最严重的方面。相关的文字与诸多个人数据保护条例、人工智能伦理原则等都是相违背的。而用户为了“尝鲜”很可能选择不理性的决定,同意了相关协议,可能带来的后果有可能是用户始料未及的。这个事件对人工智能服务的用户最大的警示就是充分重视用户协议并作出合理的知情同意决定。另一方面,工信部在4天内对相关企业的约谈,要求自查整改并取得及时与积极的成效,是中国人工智能敏捷治理的典型案例。
一方面,上述案件双方之前的协议并没有合理的中止,进一步收集更多的个人信息的同意与否与用户原有应享有的服务进行强制关联存在不妥之处。另一方面,采用人脸识别服务的应用方以及人脸识别服务的提供方是否能够确保数据在用户知情同意的基础上进行合理使用,并保护数据的隐私与安全是每一个人工智能服务提供方和应用方都应当深切关注并采取行动的,2019年年初深网视界的个人隐私数据泄露事件几乎可以肯定不会是个案,如没有引起人工智能研发与应用各个相关方对个人数据隐私与安全基础设施的足够重视,将有发生类似甚至更严重事件的风险。基于实际行动提升人工智能服务方和应用方与用户之间的信任关系是人工智能技术是否能够更广泛的造福于人类的前提。
一方面,上述案件双方之前的协议并没有合理的中止,进一步收集更多的个人信息的同意与否与用户原有应享有的服务进行强制关联存在不妥之处。另一方面,采用人脸识别服务的应用方以及人脸识别服务的提供方是否能够确保数据在用户知情同意的基础上进行合理使用,并保护数据的隐私与安全是每一个人工智能服务提供方和应用方都应当深切关注并采取行动的,2019年年初深网视界的个人隐私数据泄露事件几乎可以肯定不会是个案,如没有引起人工智能研发与应用各个相关方对个人数据隐私与安全基础设施的足够重视,将有发生类似甚至更严重事件的风险。基于实际行动提升人工智能服务方和应用方与用户之间的信任关系是人工智能技术是否能够更广泛的造福于人类的前提。
一方面,上述案件双方之前的协议并没有合理的中止,进一步收集更多的个人信息的同意与否与用户原有应享有的服务进行强制关联存在不妥之处。另一方面,采用人脸识别服务的应用方以及人脸识别服务的提供方是否能够确保数据在用户知情同意的基础上进行合理使用,并保护数据的隐私与安全是每一个人工智能服务提供方和应用方都应当深切关注并采取行动的,2019年年初深网视界的个人隐私数据泄露事件几乎可以肯定不会是个案,如没有引起人工智能研发与应用各个相关方对个人数据隐私与安全基础设施的足够重视,将有发生类似甚至更严重事件的风险。基于实际行动提升人工智能服务方和应用方与用户之间的信任关系是人工智能技术是否能够更广泛的造福于人类的前提。
一方面,上述案件双方之前的协议并没有合理的中止,进一步收集更多的个人信息的同意与否与用户原有应享有的服务进行强制关联存在不妥之处。另一方面,采用人脸识别服务的应用方以及人脸识别服务的提供方是否能够确保数据在用户知情同意的基础上进行合理使用,并保护数据的隐私与安全是每一个人工智能服务提供方和应用方都应当深切关注并采取行动的,2019年年初深网视界的个人隐私数据泄露事件几乎可以肯定不会是个案,如没有引起人工智能研发与应用各个相关方对个人数据隐私与安全基础设施的足够重视,将有发生类似甚至更严重事件的风险。基于实际行动提升人工智能服务方和应用方与用户之间的信任关系是人工智能技术是否能够更广泛的造福于人类的前提。
一方面,上述案件双方之前的协议并没有合理的中止,进一步收集更多的个人信息的同意与否与用户原有应享有的服务进行强制关联存在不妥之处。另一方面,采用人脸识别服务的应用方以及人脸识别服务的提供方是否能够确保数据在用户知情同意的基础上进行合理使用,并保护数据的隐私与安全是每一个人工智能服务提供方和应用方都应当深切关注并采取行动的,2019年年初深网视界的个人隐私数据泄露事件几乎可以肯定不会是个案,如没有引起人工智能研发与应用各个相关方对个人数据隐私与安全基础设施的足够重视,将有发生类似甚至更严重事件的风险。基于实际行动提升人工智能服务方和应用方与用户之间的信任关系是人工智能技术是否能够更广泛的造福于人类的前提。
自动驾驶存在的安全隐患不仅仅是感知技术处理常规场景的成熟与否,还包括如何应对对抗攻击等。未来更大的挑战可能还来自于外部的安全隐患,即对自动驾驶控制系统的入侵,甚至是恶意操作。相关的隐患不仅仅会危及到个人安全,甚至会影响到社会安全。此外,自动驾驶系统如果能够对周围其他车辆和行人做出明显的告知,则可能避免一些潜在隐患。未来急需对自动驾驶建立更全面的安全评估和保障框架。
自动驾驶存在的安全隐患不仅仅是感知技术处理常规场景的成熟与否,还包括如何应对对抗攻击等。未来更大的挑战可能还来自于外部的安全隐患,即对自动驾驶控制系统的入侵,甚至是恶意操作。相关的隐患不仅仅会危及到个人安全,甚至会影响到社会安全。此外,自动驾驶系统如果能够对周围其他车辆和行人做出明显的告知,则可能避免一些潜在隐患。未来急需对自动驾驶建立更全面的安全评估和保障框架。
曾毅
本案例有两件事情可以确定:(1) 目前的人工智能只有处理数据的能力,没有真正理解的能力。在这个案例中,配送规划算法做的只是基于统计的优化,而对于这种所谓的“优化”过程骑手将如何去执行,以及可能导致的后果没有任何理解能力。1950年的“图灵之问”围绕“机器是否能思考”,然而我却认为没有真正的理解,何谈思考。在对“交通违规”、“生命危险”直至“生”、“死”这些对于个人存在具有深刻意义的概念没有真正理解的情况下,骑手却被算法“操控”。算法的设计者和服务提供者可曾认真想过算法“操控”的是人?(2) 我很难相信相关的算法设计者和服务提供商从未想过“助手”可能变“杀手”。然而什么使得他们做出选择仍然这样做,直至得到社会强烈的反弹?同行之间的恶性竞争使得企业在道德选择上彷徨,直接将风险从服务提供商转到了骑手身上,牺牲掉的是那些将风险与几元配送费反复较量的生命。通过这个案例,我们当然能够得到企业需要反思以及做出改变的结论,但我们能寄希望于所有的人工智能研发、应用、服务企业完全做到自律自治吗?在2020年我们看到很多企业致力于负责任的创新,然而他们的名字也同时屡屡出现在政府发布的违规整改名单中。社会舆论的关注、监督与政府的顶层监管必不可少。企业、政府、社会开展多方治理在2020年并没有做实,这将是人工智能治理实质性落地的大挑战,却又是必经之路。