吃瓜热门

配备“紧急刹车”功能,人为应对自杀、自残行为。

▲国家网信办拟要求交互式拟人人工智能服务提供者建立应急响应机制。近日,国家互联网信息管理局公布了《拟人互动人工智能服务管理暂行办法(征求意见稿)》,并向社会公开征求意见。它规定人工智能交互服务提供者必须建立应急响应机制。当用户明确提出自杀、自残或其他极端情况时,有人会接管对话并迅速采取措施联系用户的父母或紧急联系人。所谓“人工智能拟人交互服务”,是指利用人工智能技术,向公众提供模拟人类性格特征、思维模式、沟通方式的产品或服务。通过文本、图像、音频、视频等方式与人类进行情感交互。最常见的包括大型 AI 模型、聊天机器人和游戏中的对话 NPC。尤其是大型AI模型今年呈现爆发式增长,用户规模增速持续不减。伟大的模特对人们的工作和生活产生着越来越大的影响。我们主要提供支持和故障排除,但总会出现某种问题。比如利用大型模型生成并传播有害内容。事实上,这些都是“老问题”,而本次《征求意见稿》中提到的“自杀、自残”等情况则是新问题。当局监管者非常有必要为未来做好准备,包括引入新的法规。它涉及人工智能治理最核心、最微妙的问题。简而言之,当算法面临人类生命的真正风险时,它们应该以及如何让位于人类?AI无法承担责任。人工智能具有类似人类的智能。随着技术的发展,人工智能现在可以与人类进行更密切的沟通。事实上,对话、情感支持等功能是很多人人工智能的日常应用。然而,这个过程实际上引入了一些新问题。例如,如果人工智能在对话过程中提供了错误的指导,会发生什么?从这个意义上说,征求意见稿明确规定,禁止“以鼓励、美化或暗示自杀、自残等方式损害用户身体健康,或者以谩骂、情绪操纵等方式损害用户的人格尊严、心理健康”。这并不难理解。事实上,“如果事实证明用户明确建议自杀或自残,我们将手动处理”这一条款引起了人们的关注,因为它看起来像是一个技术条款。与其他条款相比,它实际上是在探索人工智能治理的新逻辑。问题的关键在于“手动获取”,系统讨论中明确包含了手动获取可能危及生命的后果。过去很长一段时间,人工智能系统的治理主要侧重于提高效率、风险合规性和责任归属。但如果双方都没有过错,是否存在需要监督或人工干预的情况?答案是肯定的。用户的生命安全是我们的首要任务。在极端风险场景下,人工智能服务可能需要暂停,人类可以根据情况需要进行控制并进行手动干预。 。这并不是对人工智能的能力缺乏信心,而是对其局限性有清醒的认识。原因很简单。较大的模型没有能力确定真实值,并且更有可能产生“幻觉”。最重要的是,人工智能不能承担责任。当严重后果发生时,平台、公司和监管机构不能再将责任推卸给模型参数。最终,您需要手动进行传输。所以,与其事后负责收拾烂摊子,不如从一开始就负责对话。如何设置人工缓解机制。从全球范围来看,人工补救主义的逐步确立是医疗、金融、司法等领域人工智能监管的重要趋势,引发了广泛的争论。在美国,已经发生了多起人们在与大型模特近距离互动后自杀的案例,引发了相关诉讼以及关于道德和责任的激烈公开辩论。因此,人们一致认为,有必要建立一种人为的自下而上的机制。重要的是如何建立,是否切实可行,是否具有可操作性。能否保证利大于弊。这需要在技术发展、隐私、道德和安全等各个方面找到平衡。中国也是如此,目前正在准备出台法规。监管部门发出的是“舆论提案”,需要社会各阶层的共同努力。事实上,技术发展总是超越监管设计。因此,即使《征求意见稿》最终实施,也不排除需要根据时势进行完善或修改的可能性。例如,在手动获取机制中,手动获取的限制是如何定义的?在人工干预之前,人工智能必须识别用户的真实情绪状态。如何保证准确性?构建该识别算法所涉及的数据收集是否会侵犯用户隐私?会不会导致“过度c是“考虑”用户感受还是不必要的打扰?同时,小企业是否有能力建立每周7天、每天24小时的人工响应机制?人工干预后是否有义务进一步干预?人工采购应该是风险缓释机制还是强制性纠正义务?这是否会对AI聊天和拟人化服务的发展空间产生影响?解决这些冲突和问题也是征求公众意见的目的。从长期治理的角度来看从逻辑上看,必要的人为接管是明确认识到人工智能最终不能承担道德责任并积极限制人类的技术能力,建立这种理解和共识具有深远的重要性,并且比技术细节更重要,某些实施还应遵循启用机制的最低限度原则,以避免人工流量的过度扩张。转移责任。这就要求坚持程序公正,允许结果争议、信息咨询、第三方监督介入。设置手动获取限制实际上就是为你的AI服务设置限制。提醒公众“人工智能的能力是有限度的”这一现实。至少在现阶段,提供心理支持和关怀的责任是他们无法承担责任,更不可能充当能够做出价值判断、做出道德让步和承担责任的代理人。现实的人类社会应该仍然以心理支持、情感陪伴、道德劝导为主,防止人工智能被迫沦为法律意义上的“道德代理人”。最后,应该明确的是,整个磋商草案实际上重点关注两个目标。一是让人工智能承担起最初的责任。一方面,任正非的创新在于为构建“以人为中心”的人工智能治理体系提供制度支撑。由此可见,各利益相关方必须确保人工智能的发展始终不仅服务于公共福利,而且服务于国家战略和创新政策方向。撰稿/编辑:辛海光(专栏作家)/校对:马小龙/赵琳

发表评论

邮箱地址不会被公开。 必填项已用*标注