著名物理學家史蒂芬.霍金昨天在北京舉辦的全球移動互聯網大會上視訊演講。 分享 facebook 訊演講。霍金重申,人工智慧(AI)崛起要嘛是人類最好的事情,要嘛就是最糟糕的事情,人工智慧有可能是人類文明史的終結。進化太快 人工智慧恐失控他認為,人類需警惕人工智慧發展威脅。因為人工智慧一旦脫離束縛,以不斷加速的狀態重新設計自身,人類由於受到漫長的生物進化的限制,將無法與之競爭,從而被取代。霍金接受澎湃新聞訪問表示,人工智慧的研究與開發正迅速推進。也許我們所有人都應該暫停片刻,把我們的研究重複從提升人工智慧能力,轉移到最大化人工智慧的社會效益上面。監控資料 人類隱私全都露他說,「我們無法知道我們將無限地得到人工智慧的幫助,還是被藐視並被邊緣化,或者很可能被它毀滅。的確,我們擔心聰明的機器將能夠代替人類正在從事的工作,並迅速地消滅數以百萬計的工作崗位」。霍金舉例,致命性智慧自主武器是否該被禁止?如果是,那麼「自主」該如何精確定義。如果不是,任何使用不當和故障的過失應該如何問責。還有另外一些擔憂,由人工智慧逐漸可以解讀大量監控資料引起的隱私和擔憂,以及如何管理因人工智慧取代工作崗位帶來的經濟影響。智慧自主武器 牽扯核危機長期擔憂主要是人工智慧系統失控的潛在風險,隨著不遵循人類意願行事的超級智慧的崛起,那個強大的系統威脅到人類。這樣錯位的結果是否有可能?如果是,這些情況是如何出現的?「我們應該投入什麼樣的研究,以便更好的理解和解決危險的超級智慧崛起的可能性,或智慧爆發的出現」?他曾經說過,人工智慧的全方位發展可能招致人類的滅亡,比如最大化使用智慧性自主武器。霍金說,今年早些時候,他和一些來自世界各國的科學家共同在聯合國會議上支持其對於核武器的禁令。他們正在焦急的等待協商結果。目前,九個核大國可以控制大約一萬四千個核武器,它們中的任何一個都可以將城市夷為平地,放射性廢物會大面積汙染農田,最可怕的危害是誘發核冬天,火和煙霧會導致全球的小冰河期。這一結果使全球糧食體系崩塌,末日般動盪,很可能導致大部分人死亡。霍金表示,我們作為科學家,對核武器承擔著特殊的責任,因為正是科學家發明了它們,並發現它們的影響比最初預想的更加可怕。

F97359A1410EE6D8
arrow
arrow

    jeanetmc15408 發表在 痞客邦 留言(0) 人氣()