OpenAI、DeepMind在內研究人員與科技巨頭聯署 呼籲應對人工智慧帶來的風險

非營利組織Center for AI Safety (CAIS)公布人工智慧專家聯署聲明,呼籲降低人工智慧的毀滅風險,簽署者包括OpenAI和DeepMind的高級成員,強調應對人工智慧的潛在風險如同對待流行疾病和核戰。

除了日前由Elon Musk、Steve Wozniak等人共同呼籲科技業者應至少暫緩半年投入人工智慧技術研發,研究人工智慧安全性的非營利組織Center for AI Safety (CAIS)稍早也公布由諸多人工智慧技術專家簽署聲明,呼籲降低人工智慧可能帶來毀滅風險將是當前首要任務。

在此簽署聲明中,更將人工智慧可能產生風險與流行疾病、核子戰爭畫上等號,藉此強調此技術產生影響的嚴重性。

另外,參與簽署聲明的人物,分別包含OpenAI共同創辦人Ilya Sutskever、John Schulman,以及執行長Sam Altman,另外也包含多名OpenAI研究人員,而包含DeepMind創辦人Shane Legg、執行長Demis Hassabis與多名DeepMind研究人員,同時也包含多名大學研究相關領域教授。

而在聲明內容裡,則是將人工智慧可能產生風險分成8大類型,分別包含將人工智慧作為武器、散播不實內容、影響他人及社會價值,以及包含造成人類退化、失控,或是被掌控在特定人士手中等情況,希望能透過更多人建立共識,建立更安全的人工智慧應用發展。

© 版权声明
THE END
喜歡就支持一下吧
点赞5 分享
評論 抢沙发
头像
歡迎您留下寶貴的見解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容