
文/劉雨桉(山東大學 學生)
瀏覽電商網站時,當你對喜歡的商品多打開幾個網頁后,網站就會往這個方面給你推薦商品,這是基于機器學習技術進行的個性推薦,以過去推算未來。
今天用的美圖相比五年前的美圖,是不是越來越美了?這背后就是人臉大數據的存儲分析。每一次自動修圖,你存儲了就是一個正面的訓練案例,不存儲就是負面的案例。
越來越多的人工智能活躍在各行各業中,從人臉識別、機器翻譯到醫療診斷、自動駕駛,AI應用在不斷加深、不斷成熟,甚至已經開始超越人類。
我們正處在一個歷史轉折點:社會正在被技術重塑,比以往任何時候都更快、更深刻。和以往任何一種技術革新一樣,人工智能帶來的不止是繁榮,同時也伴隨著挑戰。
德勤最新開發的財務機器人,一個機器人能頂替15個財務人員工作,而且可以保持每天持續性的工作。人工智能信貸軟件能夠在數秒內完成每筆貸款審批,用智能投資算法能獲得比私人理財顧問高八倍的收益。
有研究認為,未來人工智能將會取代一半的人類工作,我們將獲得更多的時間和自由,來做我們愛做的事情。我們也將進入一個焦慮迷惘的時代,很多人將因為失業、得不到自我實現而陷入沮喪。
2017年,加拿大的 Lyrebird公司在網上發布了一則人工智能軟件生成的特朗普講話視頻,這個假視頻一經分享,迅速在網上流傳,這家公司也因此廣為人知。斯坦福大學的研究人員展示了一款名為“Face2Face”的臉部交換程序。該程序能夠操縱錄像片段,使一個人的面部表情能與其他人的面部表情相匹配,其逼真程度令人難以置信。
AI生成的內容,無論應用到音頻、視頻,還是圖片、新聞中,都足以混淆視聽。音頻、視頻記錄目前在許多國家被認為是刑事偵查最強有力的證據之一。如今,強大的人工智能技術使得這種證據受到了質疑,這可能會造成非常嚴重的后果。
2015年,谷歌AI照片服務將黑人的照片錯誤地標記為“黑猩猩”或者“猿猴”。2016年,微軟公司在美國的Twitter上線的聊天機器人在與網民互動過程中,被網友們教會了發布種族歧視言論。前不久,亞馬遜不得不放棄一款人工智能招聘軟件,因為該軟件自己學會了給包含「女性」一詞的簡歷打低分。
這些例子告訴我們,技術或許會更容易放大偏見和不平等。深度學習是一個典型的“黑箱”算法,連設計者可能都不知道算法如何決策,要在系統中發現有沒有存在歧視和歧視根源,在技術上是比較困難的,如何確保算法的公平還需要很長一段時間來實現。
2018年3月18日晚,一輛Uber自動駕駛汽車在美國亞利桑那州坦佩市撞到一位橫穿馬路的行人,該行人不治身亡。這引發了各界關于自動駕駛汽車監管、法律責任等方面的激烈討論,如果自動駕駛汽車、智能機器人對人類造成了人身、財產損害,該由誰來承擔責任?
人工智能的發展不能簡單地考慮技術——它必須是以人為本的,人工智能的最終目的應該是更好地滿足人的需求。現在的AI研究更多是工程師在參與,缺乏哲學、倫理學、法學等其他社會學科的參與,AI需要跨學科研究的廣度,由全社會共同構建一個人工智能的內外部約束機制。在AI研發中將人類社會的法律、道德等規范和價值嵌入AI系統,進行必要的監管,避免算法作惡。
去年兩會上傳出消息,全國人大常委會已將一些與人工智能密切相關的立法項目,如數字安全法、個人信息保護法和修改科學技術進步法等,列入立法規劃。同時把人工智能方面立法列入抓緊研究項目,圍繞相關法律問題進行深入的調查論證,努力為人工智能的創新發展提供有力的法治保障。相信,在法律的保障下,未來人工智能會發展成一種偉大的力量:一種為善的力量。
(本文系“青島市首屆高校評論大賽”參賽作品)

責任編輯:王學義