(纽约11日讯)去年,伊克纳在佛罗里达州立大学校园开枪扫射,造成两人死亡、6人受伤。在此之前,他曾与人对话。对话对象并非朋友、父母或任何可能劝阻他的人,而是一个人工智能(AI)聊天机器人。
法新社报导,根据佛罗里达州总检察长收集的证据,这名学生曾询问ChatGPT哪种武器和弹药最适合他的攻击,以及何时何地才能造成最大伤亡。
调查人员称,聊天机器人回答了他的问题。
现在,总检察长乌斯迈尔想知道,这是否意味著OpenAI构成犯罪。
他说:“如果萤幕另一端的人是个人,我们会以谋杀罪起诉对方。”他并宣布对ChatGPT的开发商OpenAI展开刑事调查,同时表示不排除对该公司或其员工提起诉讼的可能性。
2025年4月发生的枪击案将一个引人深思的法律问题推到了风口浪尖:人工智能的创造者是否应该为其人工智能在犯罪(甚至是自杀)中所扮演的角色承担刑事责任?
法律专家表示,这是一个现实存在但极为复杂的问题。
根据美国法律,对公司提起刑事诉讼是可能的,尽管这种情况仍然相对少见。
上个月底,普渡制药公司( Purdue Pharma)因在助长鸦片类药物危机中所扮演的角色而被处以超过50亿美元(196亿3000万令吉)的刑事罚款和处罚。
大众汽车(Volkswagen)先前因排放作弊丑闻被判有罪,辉瑞公司(Pfizer)因其推广抗炎药贝克斯特拉(Bextra)的行为被判有罪,埃克森公司(Exxon)则因阿拉斯加埃克森.瓦尔迪兹号油轮漏油事件被判有罪。
但这些案件都涉及人为决策——高阶主管、销售人员或工程师做出选择并偷工减料。
伊克纳案则不同,而正是这种差异使其在法律上如此棘手。
学者:是产品实施犯罪行为
犹他大学法学教授托克森说:“归根结底,是产品助长了这种犯罪行为,是产品实施了犯罪行为,这使得此案如此独特,也如此棘手。”
法新社谘询的法律专家表示,最有可能的两项指控是疏忽或鲁莽——后者涉及故意选择忽视已知风险或安全义务。
此类指控通常被视为轻罪而非重罪,这意味著如果罪名成立,刑罚会较轻。
然而,举证门槛很高。托克森说:“由于这是一个前沿问题,更有说服力、更明确的案例可能需要内部文件承认这些风险,但可能并未给予足够的重视。”
他说:“理论上,即使没有这些内部文件,你也能追究责任。但实际上,我认为这很难。”
杜克大学法学教授加勒特指出,在刑法中,“举证责任更高”,检察官必须在排除合理怀疑的情况下证明被告有罪。
OpenAI方面则坚称,ChatGPT对此攻击不负任何责任。
该公司说:“我们不断努力加强安全措施,以检测恶意行为、限制滥用,并在出现安全风险时做出适当应对。”
民事诉讼还是刑事诉讼?
对于那些寻求追究责任的人来说,民事诉讼或许是一条更可行的途径。
托克森表示,这种方式可能促使公司更谨慎设计产品,或至少迫使他们正视产品出错所造成的伤亡。
美国已有多起针对人工智能平台的民事诉讼,其中许多涉及自杀事件,但目前尚无任何案件判决公司败诉。
去年12月,亚当斯的家人在加州法院起诉OpenAI,指控其开发的ChatGPT导致这位康涅狄格州退休老妇人被其子谋杀。
社群媒体受害者法律中心创始律师伯格曼承认,新版本的ChatGPT引入了额外的安全措施。
他说:“我并不是说这些措施已经足够完善,但确实增加了一些保障措施。”
托克森表示,即使刑期较短,刑事定罪仍可能造成严重损害,包括“巨大的声誉损失”。
但加勒特认为,起诉无论多么引人注目都无法取代国会和特朗普政府迄今未能建立的监管框架。
他表示,那才是“一个更合理的体系”。
要看最快最熱資訊,請來Follow我們 《東方日報》WhatsApp Channel.