6月8日,谷歌公布了一份使用AI的七項原則,其中包括不會將AI技術(shù)應(yīng)用于開發(fā)武器,不會將AI用于監(jiān)視和收集信息,避免AI造成或加劇社會不公平等。事情緣起于今年3月,當(dāng)時谷歌被曝出向美國軍方提供AI技術(shù),幫助分析無人機視頻片段。4月,4000多名谷歌員工簽署了一份請愿書,要求谷歌管理層停止參與美國軍方項目,并承諾不再“研發(fā)戰(zhàn)爭技術(shù)”,還有十幾名員工通過辭職表示抗議。兩個月后,谷歌用這樣一份原則表明了自己的態(tài)度。
谷歌的使用AI的七項原則包括:1.對社會有益。2.避免制造或加劇社會偏見。3.提前測試以保證安全。4.由人類承擔(dān)責(zé)任,即AI技術(shù)將受到適當(dāng)?shù)娜祟愔笇?dǎo)和控制。5.保證隱私。6.堅持科學(xué)的高標(biāo)準(zhǔn)。7.從主要用途、技術(shù)獨特性、規(guī)模等方面來權(quán)衡。
此外,谷歌還宣布,除了上面七個原則,谷歌不會在以下應(yīng)用領(lǐng)域設(shè)計或部署AI:1.造成或可能造成整體傷害的技術(shù)。比如,一項技術(shù)可能造成傷害,谷歌只會在其好處大大超過傷害的情況下進行,并會提供適當(dāng)?shù)陌踩胧?.武器或其他用于直接傷害人類的技術(shù)。3.違反國際規(guī)范收集或使用信息進行監(jiān)視的技術(shù)。4.違反了被廣泛接受的國際法和人權(quán)原則的技術(shù)。
谷歌CEO 桑達爾•皮查伊在推特上評論了這份原則:“我們將谷歌的AI原則和實踐分享給大家。AI的開發(fā)和使用方式將在未來很多年里持續(xù)帶來重大影響。我們感到了強烈的責(zé)任感,決心要把這件事做好。”
大數(shù)據(jù)處理信息服務(wù)商金盛網(wǎng)聚WJFabric認為,雖然很多先進技術(shù)起源于軍用,例如衛(wèi)星導(dǎo)航定位系統(tǒng),最終將應(yīng)用范圍擴展至民用, 但人工智能的發(fā)展并非以此為軌跡。在世界并未實現(xiàn)完全和平的狀態(tài)下,如果將目前最先進的技術(shù)--人工智能大范圍應(yīng)用于軍用,那么將造成各國間更加巨大的不平衡,從而導(dǎo)致威脅地區(qū)安全的問題。技術(shù)的價值觀即是研發(fā)者及使用者的價值觀,踐行公平開發(fā)及有利于所有用戶的原則,應(yīng)是技術(shù)應(yīng)用的基本出發(fā)點。對于已經(jīng)擁有先發(fā)優(yōu)勢的大國而言,踐行這一原則更加責(zé)無旁貸。
金盛網(wǎng)聚(北京)科技有限公司成立于2012年,是一家數(shù)據(jù)處理與信息咨詢服務(wù)商,公司擁有自主核心技術(shù)與服務(wù)咨詢的團隊, 公司“WJFbaric-互聯(lián)網(wǎng)大數(shù)據(jù)信息監(jiān)測SaaS平臺”目前注冊使用客戶將近上萬個,為企業(yè)、政府、學(xué)術(shù)機構(gòu)、成功人士等提供在線信息收集、展示、閱讀、存儲的免費平臺,公司遠景致力于通過數(shù)據(jù)+計算形成可視化的人工智能決策平臺。