亚洲制服师生 中文字幕,日韩电影免费,亚洲国产高清无码不卡视频 ,人人操人人摸人人操,在线亚洲精品福利网址导航,金欧洲国产免费无码黄色片

以傳播城市化專業(yè)知識為己任
2025年03月13日
星期四
設(shè)為首頁 | 加入收藏
霍金的遺愿清單:離開地球和警惕人工智能
時間:2018-03-14 15:20:00  來源:網(wǎng)易新聞 

    輪椅上的斯蒂芬·霍金終于離開了地球,可以和愛因斯坦、牛頓他們一起打打牌了。

    在過去的二十年里,霍金是明星,除了繼續(xù)探索宇宙理論,他也出現(xiàn)在各種場合,為所有關(guān)切人類命運的主題發(fā)聲。而在他去世前的這幾年中,霍金最關(guān)注的話題就是:離開地球和警惕人工智能。

    現(xiàn)在我們就梳理下霍金通過各種渠道談?wù)撨@兩個話題的言論。

    關(guān)于離開地球,早在2011年霍金在接受美國視頻共享網(wǎng)站BigThink訪談時就稱地球?qū)⒃趦砂倌陜?nèi)毀滅,人類要想活命只能移民外星球。

    2017年11月5日,霍金通過視頻指出了人類移民太空的原因所在:一個原因是,對我們來說,地球變得太小了。在過去二百年中,人口增長率是指數(shù)級的,即每年人口以相同比例增長。目前這一數(shù)值約為1.9%。 這聽起來可能不是很多,但它意味著,每四十年世界人口就會翻一番。 2022年,我將慶祝自己80歲的生日,而在我人生的這段歷程中,世界人口比我出生時膨脹了四倍。這樣的指數(shù)增長不能持續(xù)到下個千年。 到2600年,世界將擁擠得 “摩肩擦踵”,電力消耗將讓地球變成“熾熱”的火球。這是岌岌可危的。然而我是個樂觀主義者,我相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類在其他星球上生活的可能。

    而在2017年7月,霍金就痛批美國總統(tǒng)特朗普退出氣候問題《巴黎協(xié)定》的決定,可能將導(dǎo)致不可逆轉(zhuǎn)的氣候變化,警告稱此舉或?qū)⒆尩厍蜃兂梢粋€金星一樣的溫室星球?;艚鹪诮邮蹷BC專訪時表示,我們正在接近全球變暖不可逆轉(zhuǎn)的臨界點,特朗普的決定可能將地球推過這個臨界點,變成像金星一樣的星球,溫度高達250度,并且下著硫酸雨。

    也是在2017年6月播放的紀(jì)錄片《遠征新地球》(Expedition New Earth)中,霍金說,在未來一百年內(nèi),人類為生存必須離開地球,在太空尋求新家。

    離開地球,霍金也不是光嘴皮子嚇唬嚇唬大家,2016年4月12日在紐約宣布啟動“突破射星”計劃,將同俄羅斯商人尤里·米爾納(Yuri Milner),以及美國社交網(wǎng)站面簿創(chuàng)始人兼總裁扎克伯格(Mark Zuckerberg)合作建造能以五分之一光速飛往比鄰星的微型星際飛船。

    除了地球即將面臨的各種風(fēng)險,霍金更關(guān)切人類正在創(chuàng)造一個毀滅自己的怪物:人工智能(AI)。

    2017年3月,霍金在接受英國《泰晤士報》采訪時再次發(fā)出警告,“人類需要控制以人工智能為代表的新興科技,以防止它們在未來可能對人類生存帶來的毀滅性威脅。”他還說,“自從人類文明開始以來,侵略便一直存在,往往出現(xiàn)在相對具有生存能力優(yōu)勢的不同群體之間,而未來人工智能進一步發(fā)展便可能具備這種‘優(yōu)勢’”,霍金解釋自己的警告時說道,“他們本身也是生根于達爾文的進化論之中。因此人類需要利用邏輯和理性去控制未來可能發(fā)生的威脅?!?/p>

    2016年10月19日,劍橋大學(xué)“萊弗休姆的未來智能中心(LCFI)”正式投入使用。霍金在慶祝典禮上發(fā)表了演講?;艚鹪谘葜v中批評了人工智能的無節(jié)制發(fā)展,他認為,人工智能技術(shù)的確有希望帶來巨大的福利,比如根除疾病和貧困,但是它同樣也可能帶來危險,比如強大的自主式武器,或者幫助少數(shù)人壓迫多數(shù)人?!拔覀兓舜罅康臅r間來學(xué)習(xí)歷史。”霍金說,“讓我們面對現(xiàn)實,大部分的歷史是愚蠢的。所以對于那些學(xué)習(xí)未來智能的人應(yīng)該表示歡迎?!?“我們生活的每一個方面都會改變??傊瑒?chuàng)造AI的成功可能是我們文明歷史上最大的事件?!被艚鹫f。

    2016年1月26日和2月2日在BBC電臺第四頻道播出霍金瑞思系列演講(Reith Lectures),在演講中他直言,科學(xué)技術(shù)的進一步發(fā)展會惹出更多的新麻煩。同樣在這個演講中,霍金依舊認為科技進步是人類的新威脅。他甚至提及若人類最終得以在其他星球建立家園,或許還能幸存下來。

    “盡管地球在某一年遭受滅頂之災(zāi)的可能性很低,但隨著時間的推移,在未來幾千或幾萬年,這會是可以預(yù)見的事情。那時,我們應(yīng)該已經(jīng)進入太空、住到其他星球上。所以地球上的毀滅并不意味著人類的終結(jié)?!薄叭欢辽僭谖磥頂?shù)百年里我們還無法在太空世界建起人類的地盤。所以我們現(xiàn)在必須非常小心?!?/p>

    2015年,霍金曾聯(lián)合思想家喬姆斯基馬斯克等數(shù)千名知識分子發(fā)表聯(lián)名公開信中警告:必須取締“機器人殺手”的研發(fā)和應(yīng)用,人工智能方面的軍備競賽可能是人類的災(zāi)難,它將助長戰(zhàn)爭和恐怖主義,加劇世界動蕩局勢。

    這封公開信由未來生活研究所(Future of Life Institute)發(fā)起,這個團體致力于緩解“人類面臨的生存風(fēng)險”,警告人們啟動“人工智能軍備競賽”的危險。公開信中談到“人工智能技術(shù)已經(jīng)達到了這樣一個地步:如果沒有法律限制,那么這種系統(tǒng)的部署在未來幾年中就可以實現(xiàn),并不需要等待幾十年?!?/p>

    而早在2014年12月,霍金接受英國廣播公司(BBC)采訪時就明確表示:“制造能夠思考的機器無疑是對人類自身存在的巨大威脅。當(dāng)人工智能發(fā)展完全,就將是人類的末日。”

    霍金也許對人類和科技的未來是悲觀的,他并不信任人類真的能控制科技這個怪物,但令人諷刺的是,一旦人類用科技毀掉了這個星球,他所能仰賴的也只有科技能幫這個種族在外星球繼續(xù)繁衍。

    讓我們別忘記霍金的預(yù)言和警告。

相關(guān)新聞
友情鏈接:  國務(wù)院 住建部 自然資源部 發(fā)改委 衛(wèi)健委 交通運輸部 科技部 環(huán)保部 工信部 農(nóng)業(yè)農(nóng)村部
國家開發(fā)銀行 中國銀行 中國工商銀行 中國建設(shè)銀行 招商銀行 興業(yè)銀行 新華社 中新社 搜狐焦點網(wǎng) 新浪樂居 搜房
中國風(fēng)景園林網(wǎng) 清華大學(xué) 北京大學(xué) 人民大學(xué) 中國社會科學(xué)院 北京工業(yè)大學(xué) 北京理工大學(xué) 北京科技大學(xué) 北京林業(yè)大學(xué) 北京交通大學(xué)
城市化網(wǎng)版權(quán)所有:北京地球窗文化傳播有限公司 service@ciudsrc.com