分類
iKala 創新趨勢相談所

人工智慧的變革與創新(下)

Play Video about 趨勢相談所

AI 技術加速滲透各商業領域,持續推動產業數位轉型浪潮。市調機構 IDC 指出,預估全球 AI 市場營收達到 17.5% 的年複合成長率,到 2024 年總營收將突破 5 千億美元。人類社會應如何因應人工智慧帶來的科技變革?未來 AI 產品開發思維與企業商業模式,又有哪些值得留意之處?本集的《iKala 創新趨勢相談所》,就將邀請 iKala 共同創辦人暨執行長程世嘉來分享「人工智慧的變革與創新」。

以下是本次趨勢分享的精選內容:

隱私權及安全

2018 年麻省理工學院 MIT 的線上問卷調查,提出了一個問題:一輛自動車如果在行駛的途中,發現快要撞上行人了,一個是嬰兒,一個是老人,應該留下誰?這個調查的結果,其實也呈現了東西方的文化差異,東方的國家幾乎都集中在右邊,而左邊這些歐美國家,比較講求獨立性,以及對於年輕人、新生兒未來的重視,因此在選擇上就跟東方做出差異。在同樣一個 AI 的道德選擇上面,每個國家的光譜都不一樣,這就是為什麼 AI 到後面會有很多道德選擇的難題。

再看一個比較接地氣的例子,前年台鐵要導入智慧監控攝影機,主要是為了預防犯罪,但卻引起了侵害人權的爭議,最終計畫只能喊停。對於這樣 AI 人臉辨識的技術,有人主張它可以遏止犯罪,應該無條件的使用,也有人覺得侵犯隱私,還有一派人認為應該在中間找個平衡點,兼顧隱私和打擊犯罪。在技術不斷發展的同時,「個人的隱私權」和「群眾知的權利」這兩件事,正不斷地在衝突當中。

拉回產業面,現今數位廣告的追蹤已經非常氾濫,大家甚至於有些反感,所以幾個數位巨頭也對此做出回應。例如 Google 承諾在最近就要逐漸廢除第三方 Cookies;在我們的手機上面,新版的 Android 現在也要開始,讓使用者選擇跳出廣告主的 ID;而 Apple 也把廣告主辨識手機使用者的 ID,直接用使用者不加入就等同於廢除的方式,是更積極的方式把廣告追蹤機制廢除。

在這個重視隱私權的世界當中,機器學習還有 AI 要如何發展下去呢?其實產業界也有提出相對應的做法,其中一個就叫聯盟學習(Federated Learning)。它主打的一個概念就是「見林不見樹」,也就是說可以在不辨識出一個個人身分的情況之下,還是大致上去了解他的興趣和行為,而不是像精準廣告追蹤是「見樹又見林」。Google 是率先提出這個技術的公司,也運用這樣的技術,在訓練他們的一些語言模型,在不知道使用者隱私的情況之下、不知道這個是來自於哪一個使用者的情況之下,還是繼續強化它對於這個語言的辨識度,這些就是在隱私權興起的世界,AI 技術發展的方向。

而各國對於隱私權議題的回應,從歐盟的 GDPR 開始,包括加州,包括巴西,包括南非,都提出了自己的資料保護還有隱私權的政策。現在各國想要做跨國網路生意的公司,其實都在適應各國政府的法規,所以各國政府的法規加上科技巨頭對於隱私權的回應,造就了未來商業世界會如何形塑。

深偽技術

AI 在生成影像、文字和圖片,已經可以製造出幾可亂真,人類也無法辨識的東西。您可以觀察下面四張圖片,是否有什麼異樣?大部分的人就覺得就是狗、風景、蝴蝶、漢堡的照片,那真正的關鍵在於這四張圖片並不真實存在,也就是說,它不是真的攝影機拍下來的照片,而是電腦完全合成的,這樣子的技術 DeepMind 在 2018 年就已經做出來了。發展到 2021 年的今天,所見未必可信,所以在網路上看到的,或者在任何地方看到的一些素材內容,都要抱持著懷疑的態度去找出他是否為真,這是 AI 帶來的一個非常大的影響。

Picaas 是一個 iKala 開發出來的技術,主要用來做圖片修改。要解決的問題非常簡單:當我們拿到一個有 logo 或多於文字的商品圖,一般來說會請設計師去背、修圖,但現在可以透過 AI 來做。如上圖所示,左邊是修改之前的圖,右邊是用 Picaas 修改之後的圖。整體來說,它就提升了設計師的生產力,原本一張圖可能要花十分鐘來處理,但現在有了 AI 的輔助,它 2.2 秒就可以處理完,大幅減低了圖片處理上重複性工作的時間。

資料所有權

Tesla 的自動駕駛是怎麼訓練出來的呢?其實就是大量蒐集駕駛在行車時候的資料,回傳到一個機器學習的模型,它再回頭部署到每一輛車上面,讓自動駕駛更安全,可以說是一種分散式的訓練的模式。但這就衍生出一個議題:這些資料,到底是 Tesla 的,還是駕駛人的?這個問題就會帶來很多的爭議性,以下可以用一個比較簡單的例子來解釋,為什麼這個問題不好解決。

一直以來農夫和養蜂人間都處於一個很微妙的合作關係,因為農人的農作物需要靠蜜蜂來授粉,養蜂人則是要採集蜂蜜去販賣,兩人需求不同,但是彼此依賴。那在這樣的合作關係之下,誰要付給誰錢?結論是,農夫要付給養蜂人錢,因為農夫對於養蜂人的依賴是比較大的。為什麼他們可以形成這樣的交易?第一是他們達成交易的摩擦力很低、取得共識很容易;第二是他們對於各自產出的所有權是清楚的,養蜂人擁有蜜蜂、需要的是蜂蜜,而農人想要農作物能夠大量生產。這個其實就是經濟學中的寇斯理論。

舉一個大家最近可能比較容易理解的例子,就是打疫苗這件事情。如果我是一個要打疫苗的人,但是我現在不去打,那我是要為了我不打疫苗而付錢給整個社會,因為如果不打疫苗,我可能染疫、讓社會付出成本,還是人們要付錢給我去打疫苗,以免我危害這個社會?這個就是所謂寇斯理論在講的外部性問題,其實兩種做法都可以,但是是存在爭議以及選擇的。

資料有同樣的問題。資料到底是對公眾是好的,企業可以任意的使用,還是說資料是我個人擁有的,我應該把它當成一個資產來做交易、來看待?這就是接下來全世界發展一個很重要的議題。

可解釋的 AI

當 AI 為我們做出越來越多決策的時候,不免就會有很多人好奇,為什麼 AI 幫我們做出的這些決策,我們就得去聽、去跟隨?

這些問題可能可以大、也可以小,我們在 Amazon 買書的時候,AI 會推薦給我們一些我們想看的書,這個時候我們可能會欣然接受,然後去稍微看一下它推薦的東西,但是我們並不會特別計較為什麼 AI 知道我喜歡看這些書,只是單純在消費行為上面,覺得 AI 輔助到我們,但是在其他的情境之中,例如銀行貸款,人類就會希望機器在做決定的時候,可以給出相對應的解釋。

對此,2018 年歐盟就提出了「解釋的權利」,讓個人在面對電腦自動化決策時,可以要求企業解釋為什麼機器做出這樣的決定。然而,我們人類在平常在做決策的時候,就已經很難解釋說,我們思考的脈絡可能是什麼,對機器來說也是如此,所以在 AI 的領域,這個就被稱為是「AI 黑箱」的問題。現今有很多的學者和開發者,也希望能夠因應各國政府對個人的保護,希望能夠在可解釋的 AI 技術上面有所發展。

 

更多精彩內容,敬請註冊《iKala 創新趨勢相談所》。