a级成人毛片免费视频高清/国产精品久久自在自2021/国产一级内谢a级高清毛片/九九热亚洲精品综合视频 - 俺去俺去啦最新官网在线

以傳播城市化專業知識為己任
2024年11月24日
星期日
設為首頁 | 加入收藏
霍金的遺愿清單:離開地球和警惕人工智能
時間:2018-03-14 15:20:00  來源:網易新聞 

    輪椅上的斯蒂芬·霍金終于離開了地球,可以和愛因斯坦、牛頓他們一起打打牌了。

    在過去的二十年里,霍金是明星,除了繼續探索宇宙理論,他也出現在各種場合,為所有關切人類命運的主題發聲。而在他去世前的這幾年中,霍金最關注的話題就是:離開地球和警惕人工智能。

    現在我們就梳理下霍金通過各種渠道談論這兩個話題的言論。

    關于離開地球,早在2011年霍金在接受美國視頻共享網站BigThink訪談時就稱地球將在兩百年內毀滅,人類要想活命只能移民外星球。

    2017年11月5日,霍金通過視頻指出了人類移民太空的原因所在:一個原因是,對我們來說,地球變得太小了。在過去二百年中,人口增長率是指數級的,即每年人口以相同比例增長。目前這一數值約為1.9%。 這聽起來可能不是很多,但它意味著,每四十年世界人口就會翻一番。 2022年,我將慶祝自己80歲的生日,而在我人生的這段歷程中,世界人口比我出生時膨脹了四倍。這樣的指數增長不能持續到下個千年。 到2600年,世界將擁擠得 “摩肩擦踵”,電力消耗將讓地球變成“熾熱”的火球。這是岌岌可危的。然而我是個樂觀主義者,我相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類在其他星球上生活的可能。

    而在2017年7月,霍金就痛批美國總統特朗普退出氣候問題《巴黎協定》的決定,可能將導致不可逆轉的氣候變化,警告稱此舉或將讓地球變成一個金星一樣的溫室星球。霍金在接受BBC專訪時表示,我們正在接近全球變暖不可逆轉的臨界點,特朗普的決定可能將地球推過這個臨界點,變成像金星一樣的星球,溫度高達250度,并且下著硫酸雨。

    也是在2017年6月播放的紀錄片《遠征新地球》(Expedition New Earth)中,霍金說,在未來一百年內,人類為生存必須離開地球,在太空尋求新家。

    離開地球,霍金也不是光嘴皮子嚇唬嚇唬大家,2016年4月12日在紐約宣布啟動“突破射星”計劃,將同俄羅斯商人尤里·米爾納(Yuri Milner),以及美國社交網站面簿創始人兼總裁扎克伯格(Mark Zuckerberg)合作建造能以五分之一光速飛往比鄰星的微型星際飛船。

    除了地球即將面臨的各種風險,霍金更關切人類正在創造一個毀滅自己的怪物:人工智能(AI)。

    2017年3月,霍金在接受英國《泰晤士報》采訪時再次發出警告,“人類需要控制以人工智能為代表的新興科技,以防止它們在未來可能對人類生存帶來的毀滅性威脅。”他還說,“自從人類文明開始以來,侵略便一直存在,往往出現在相對具有生存能力優勢的不同群體之間,而未來人工智能進一步發展便可能具備這種‘優勢’”,霍金解釋自己的警告時說道,“他們本身也是生根于達爾文的進化論之中。因此人類需要利用邏輯和理性去控制未來可能發生的威脅。”

    2016年10月19日,劍橋大學“萊弗休姆的未來智能中心(LCFI)”正式投入使用。霍金在慶祝典禮上發表了演講。霍金在演講中批評了人工智能的無節制發展,他認為,人工智能技術的確有希望帶來巨大的福利,比如根除疾病和貧困,但是它同樣也可能帶來危險,比如強大的自主式武器,或者幫助少數人壓迫多數人。“我們花了大量的時間來學習歷史。”霍金說,“讓我們面對現實,大部分的歷史是愚蠢的。所以對于那些學習未來智能的人應該表示歡迎。” “我們生活的每一個方面都會改變。總之,創造AI的成功可能是我們文明歷史上最大的事件。”霍金說。

    2016年1月26日和2月2日在BBC電臺第四頻道播出霍金瑞思系列演講(Reith Lectures),在演講中他直言,科學技術的進一步發展會惹出更多的新麻煩。同樣在這個演講中,霍金依舊認為科技進步是人類的新威脅。他甚至提及若人類最終得以在其他星球建立家園,或許還能幸存下來。

    “盡管地球在某一年遭受滅頂之災的可能性很低,但隨著時間的推移,在未來幾千或幾萬年,這會是可以預見的事情。那時,我們應該已經進入太空、住到其他星球上。所以地球上的毀滅并不意味著人類的終結。”“然而,至少在未來數百年里我們還無法在太空世界建起人類的地盤。所以我們現在必須非常小心。”

    2015年,霍金曾聯合思想家喬姆斯基馬斯克等數千名知識分子發表聯名公開信中警告:必須取締“機器人殺手”的研發和應用,人工智能方面的軍備競賽可能是人類的災難,它將助長戰爭和恐怖主義,加劇世界動蕩局勢。

    這封公開信由未來生活研究所(Future of Life Institute)發起,這個團體致力于緩解“人類面臨的生存風險”,警告人們啟動“人工智能軍備競賽”的危險。公開信中談到“人工智能技術已經達到了這樣一個地步:如果沒有法律限制,那么這種系統的部署在未來幾年中就可以實現,并不需要等待幾十年。”

    而早在2014年12月,霍金接受英國廣播公司(BBC)采訪時就明確表示:“制造能夠思考的機器無疑是對人類自身存在的巨大威脅。當人工智能發展完全,就將是人類的末日。”

    霍金也許對人類和科技的未來是悲觀的,他并不信任人類真的能控制科技這個怪物,但令人諷刺的是,一旦人類用科技毀掉了這個星球,他所能仰賴的也只有科技能幫這個種族在外星球繼續繁衍。

    讓我們別忘記霍金的預言和警告。

相關新聞
友情鏈接:  國務院 住建部 自然資源部 發改委 衛健委 交通運輸部 科技部 環保部 工信部 農業農村部
國家開發銀行 中國銀行 中國工商銀行 中國建設銀行 招商銀行 興業銀行 新華社 中新社 搜狐焦點網 新浪樂居 搜房
中國風景園林網 清華大學 北京大學 人民大學 中國社會科學院 北京工業大學 北京理工大學 北京科技大學 北京林業大學 北京交通大學
城市化網版權所有:北京地球窗文化傳播有限公司 service@ciudsrc.com