🚨AI失控倒计时!2万专家联名呼吁:禁止超智能!

最近,关于人工智能(AI)发展的问题引起了很多人的关注。你有没有想过,如果AI变得比人类聪明得多,会发生什么?

近日,全球人工智能专家和知名人士联名签署了一份公开信,呼吁禁止开发比人类智慧更强的“超级智能”AI。这封信来自一个关注AI风险的非政府组织,签署者包括著名历史学家尤瓦尔·诺亚·哈拉里和被誉为“AI之父”的杰弗里·辛顿等。

他们认为超级智能AI可能威胁人类文明,哈拉里直言“完全没有必要”。目前,已有超过2.2万人签署这封信,包括前美国总统首席策略师和英国皇室成员。

大公司仍在推进AI开发,OpenAI的CEO甚至预测2030年可能出现超级智能。但很多人担心,这可能会导致人类尊严丧失和安全风险。

点评:AI发展是一把双刃剑,如何平衡创新与安全是关键。你觉得应该如何应对AI的飞速发展?

金句:与其杞人忧天,不如现在就行动,让科技为人类服务,而不是被它控制。

您对这个内容的看法如何?

点击星号为它评分!

平均评分 0 / 5. 投票数: 0

到目前为止还没有投票!成为第一位评论此文章。

原文链接:https://ribenzhan.com/toutiao/guoji/12441/,转载请注明出处。
0

評論0

請先

請認准網址
https://ribenzhan.com

Building icon
感受美好
3分で完了
さっそく申し込む お問い合わせ
返回
沒有帳號?註冊  忘記密碼?

社交帳號快速登錄