最近,越来越多人开始把 ChatGPT 当作个人的咨询伴侣,但你有没有想过,如果 AI 被用来做心理治疗,会有什么问题?美国伊利诺伊州最近就出台了一项法律,禁止在心理咨询和治疗中使用 AI,这又是怎么回事呢?
简单来说,这项法律是为了防止 AI 带来的潜在风险。研究发现,一些 AI 在处理心理问题时可能会给出负面或不适当的回答,甚至可能加剧患者的症状。伊利诺伊州政府认为,有资格的专业人士才能提供高质量的医疗服务,而不是靠收集网络信息生成答案的电脑程序。
其实,不只是伊利诺伊州,美国其他州也在加强对 AI 在心理咨询领域的监管。比如,ニュージャージー州禁止将 AI 解决方案宣传为合格的心理健康专家,ユタ州则要求 AI 必须披露特定信息来保护用户。
说实话,我觉得这事儿挺有必要的。我们不能完全依赖 AI 来解决心理问题,不然可能会带来更多麻烦。还是那句话,专业的心理咨询师才能提供更安全、更有效的帮助。
所以,AI 在心理咨询和治疗中的应用,我们还是要谨慎一些。毕竟,心理健康问题是复杂且严肃的,不能用机器简单地解决。
原文链接:https://ribenzhan.com/toutiao/keji/6007/,转载请注明出处。

評論0