最近,关于人工智能(AI)发展的问题引起了很多人的关注。你有没有想过,如果AI变得比人类聪明得多,会发生什么?
近日,全球人工智能专家和知名人士联名签署了一份公开信,呼吁禁止开发比人类智慧更强的“超级智能”AI。这封信来自一个关注AI风险的非政府组织,签署者包括著名历史学家尤瓦尔·诺亚·哈拉里和被誉为“AI之父”的杰弗里·辛顿等。
他们认为超级智能AI可能威胁人类文明,哈拉里直言“完全没有必要”。目前,已有超过2.2万人签署这封信,包括前美国总统首席策略师和英国皇室成员。
大公司仍在推进AI开发,OpenAI的CEO甚至预测2030年可能出现超级智能。但很多人担心,这可能会导致人类尊严丧失和安全风险。
点评:AI发展是一把双刃剑,如何平衡创新与安全是关键。你觉得应该如何应对AI的飞速发展?
金句:与其杞人忧天,不如现在就行动,让科技为人类服务,而不是被它控制。
原文链接:https://ribenzhan.com/toutiao/guoji/12441/,转载请注明出处。

評論0