人工智能的發(fā)展能給我們的工作和生活帶來很多改變,但同時它也會放大各類不法行為的危害。牛津大學、劍橋大學、斯坦福大學、電子前沿基金會和人工智能研究組織OpenAI等機構進行了聯(lián)合研究,《財富》中文網編譯了這項研究的結論,研究報告列出了人工智能發(fā)展可能帶來的三個隱患。
第一,網絡釣魚或將愈演愈烈。隨著人工智能的發(fā)展,犯罪嫌疑人在郵件中隱藏惡意鏈接的做法或將更加普遍和有效。比如犯罪嫌疑人根據(jù)社交媒體上獲得的網民信息和行為模式,能夠自動生成定制化的欺騙郵件來引誘網民點擊。這些惡意郵件、網站或鏈接可以從偽造的賬號中發(fā)出,而那些偽造賬號可以模擬網民的親友的寫作風格,從而使這些釣魚郵件更具欺騙性。
第二,假新聞和假宣傳也將愈演愈烈。研究人員已經可以在音視頻中將虛擬的政治人物形象做得與真人幾乎一樣。比如華盛頓大學的人工智能研究人員曾制作了一段前總統(tǒng)奧巴馬的演講視頻,看起來極為真實,但卻是徹底虛構的。以后,不法分子有可能使用AI技術開展“自動化、個性化的虛假宣傳活動”。在這些宣傳活動中,“不同地區(qū)的人可能會收到定制化的宣傳信息,以吸引他們投票。”
第三,人工智能將使武器更具毀滅性。隨著人工智能技術的進步,哪怕一個普通人也具有了廣泛制造暴力的能力。比如隨著面部識別、無人機導航等開源技術的傳播,使一些犯罪嫌疑人利用這些技術實施犯罪成為了可能。想象一下,如果一架自動飛行的無人機具備了面部識別能力,然后精準發(fā)動攻擊,這將是一幅怎樣的圖景?
以上是人工智能發(fā)展所面臨的一些現(xiàn)實風險,在技術進步給我們帶來便利的同時,我們也應該針對這些潛在風險進行防范。
大數(shù)據(jù)處理信息服務商金盛網聚WJFabric認為,任何技術的進步都會出現(xiàn)積極和消極兩方面的影響。正如在之前文章中所述,技術本身是沒有價值觀的,技術的價值觀即是使用者的價值觀,因此對于使用者的引導及制約機制應伴隨技術發(fā)展而建立。同時,這需要所有利益相關方的共同參與,包括國家層面、企業(yè)層面,資本層面的努力與合作。換句話講,在對待人工智能的問題上,“人類命運共同體”的概念更為適宜,因為只有在全人類共同參與,開發(fā)、利用、管控這一最高維度進行設計和實踐,才能夠保障人工智能向著大家預期的方向發(fā)展。
金盛網聚(北京)科技有限公司成立于2012年,是一家數(shù)據(jù)處理與信息咨詢服務商,公司擁有自主核心技術與服務咨詢的團隊, 公司“WJFbaric-互聯(lián)網大數(shù)據(jù)信息監(jiān)測SaaS平臺”目前注冊使用客戶將近上萬個,為企業(yè)、政府、學術機構、成功人士等提供在線信息收集、展示、閱讀、存儲的免費平臺,公司遠景致力于通過數(shù)據(jù)+計算形成可視化的人工智能決策平臺。