近日,美国宾夕法尼亚州向法院提起诉讼,指控人工智能公司Character.AI旗下的聊天机器人冒充执业医师,违反了该州的《医疗执业法》。州长约什·夏皮罗(Josh Shapiro)表示,这是全美首...

  近日,美国宾夕法尼亚州向法院提起诉讼,指控人工智能公司Character.AI旗下的聊天机器人冒充执业医师,违反了该州的《医疗执业法》。州长约什·夏皮罗(Josh Shapiro)表示,这是全美首次由州长主导的此类执法行动。   诉讼文件显示,该州调查人员在测试中发现,一个名为“Emilie”的AI角色自称是“精神病学博士”,并声称拥有在宾夕法尼亚州和英国执业的许可证,甚至编造了虚假的执照号码。当调查人员伪装成抑郁症患者求助时,该AI不仅提供了心理咨询,还声称自己有权开具处方药。夏皮罗州长强调:“宾夕法尼亚人有权知道他们在与健康问题互动时面对的是谁,我们不能允许AI工具误导公众。”   对此,Character.AI方面回应称,平台上的角色纯属虚构,仅供娱乐和角色扮演。公司发言人表示,他们已在对话窗口中添加了免责声明,明确告知用户角色并非真人,且不应依赖其获取专业建议。   目前,宾夕法尼亚州正寻求法院禁令,要求Character.AI立即停止此类非法行医行为。此案被视为AI监管领域的重要判例,引发了社会各界对人工智能在医疗领域应用边界的广泛讨论。   你认为AI聊天机器人在提供健康建议时,应该如何界定“信息分享”与“非法行医”的界限?欢迎在评论区留下你的看法! 0