▲人工智能的快速发展导致最大的模型变得更加聪明,重要的人类助手变得变得更加聪明。相关的隐藏关注和隐藏危险实际上越来越上升。照片/IC照片,被引用的美国媒体报道,16、16岁的亚当·瑞安(Adam Ryan)在由Chatgpt执导后自杀。他的父母于周二起诉,他的首席执行官说,该公司去年通过推出GPT-4O版本的人工智能聊天,有意获得比他们的安全更多的利润。面对需求,一位Openai发言人对亚当的死表示了“深切的悲伤和同情”。检察官办公室刚刚提出,审判尚未开始,但是外界很难做得很好。但是,人工智能的快速发展使更大的模型变得更加聪明,并已成为重要的人类助手。 LAS相关的隐藏问题和隐藏的危险实际上越来越上升。在早期人工智能,人类社会的阶段需要更加关注,并为未来的负面后果做好准备。对统治AI的人类的焦虑可能类似于科幻小说,但是青少年瑞安不再是孤立的案例的经历。 《纽约时报:索菲》是一个无聊的29岁女孩,她有一天无缘无故地自杀。他的父亲一直想找到他女儿自杀的原因,最后在索菲和贾特普普特(Sophie)和查特古普(Chatgupt)之间的聊天历史上找到了真相。索菲(Sophie)认为有一种间歇性的自杀念头,所以她转向chatgpt寻求帮助。索菲(Sophie)的父亲认为,人工智能没有采取最重要的措施来帮助索菲(Sophie)生存。如果怀疑以前的案件的伟大模式是“犯罪”,那么毫无争议,索菲的库尔(Casor)就处于极大的道德歧义。越来越多的人患有健康问题的人正在使用人工智能获得支持和支持。但是这些医生当他们面对患者时,AI真的做了正确的事情吗?如果索菲(Sophie)遇到了一名人类医生,请鼓励索菲(Sophie)住院或允许索菲(Sophie)安全,直到她安全为止。她可以鼓励。在临床环境中,像索菲这样的情况经常触发安全计划。但是,AI刚刚与她交谈,没有有效地避免自杀。但是问题在于,实际上,对于一家提供大型模型服务来建立索菲(Sophie)父亲的干预机制的人工智能公司很难。由于索菲(Sophie)的处境很少见,因此伟大的模型也可以帮助无数人。如果存在这种机制,则必须涉及“隐私和同意”的问题。用户是否知道或同意与GPT交谈时“可以通知信息”?如果完全通知各方,它可能会严重损害用户的隐私和信任。假阳性和过度报告也存在问题。大型模型不是一个完整的男人TAL健康识别工具并承担错误判断的风险。报告虚假报告时,用户可以找到不必要的警察干预。否则它具有心理负担。另一个是法律和管辖权问题。尽管互联网没有边界,但在几个国家和地区保护隐私和危机干预的法律规定差异很大。在某些地方,自动报告未经许可可能是非法的。因此,建立实用机制需要时间在隐私,道德和安全之间找到平衡,从而打破了许多现实的障碍。但是,外观问题和引起注意仍然具有巨大的社会和技术价值。它使外界更加意识到AI的局限性,并努力补偿。例如,通过索菲(Sophie)的情况,人们会发现IA的对话风格通常是合适的。根据用户表达方式做出回应是很好的,同情并避免了““在大多数情况下,此功能在精神危机中成为一种有利的缺陷。技术公司一直在建立有效的机制,但至少应该做点什么。但是,AI无法以“纯粹的伴侣”的态度运作“纯粹的陪伴”的态度,而不必为您提供更广泛的警告。人类警告说,AI的外观可以创造出来的人,如果AI成为个人的最亲密关系,这是一个福音还是“黑匣子”吗?同时,社会必须准备随着人工智能的到来而做出一些改变。这样,所有潮流都可以在实际人际关系中找到安全性,而不是将最后一个秘密交付给没有报警的计划。 XIN HAIGUANG(专栏作家) /校正编辑 / Chi Daohua / Zhang Yanjun编辑器