我的業務要不要用人工智能?引入AI前你需要評估的(四)

這是一個系列文章,從各個角度來評估一個問題:“我的業務要不要用 AI ?能不能用 AI?” 本期評估角度——黑箱
這是一個系列文章,從各個角度來評估一個問題:“我的業務要不要用 AI ?能不能用 AI?”本期評估角度——黑箱

黑箱是人工智能的缺點

并非所有人工智能都是黑箱的,大家說的黑箱主要指當下最熱門、效果也最好的「深度學習」。

在我之前寫的《一文看懂深度學習》中,舉過一個水龍頭的例子,從那個例子就可以看出:深度學習的工作原理不是講邏輯(基于規則),而是大力出奇跡(基于統計)。

大力出奇跡會導致幾個結果:

  1. 深度學習只能告訴你「是什么」,但是不能告訴你「為什么」
  2. 沒人能預知在什么情況下會出現錯誤

下面的圖片就會展示一些人工智能所犯下的「低級錯誤」。

而最可怕的是:當我們發現問題時,并不能針對具體問題來對癥下藥。

我們過去的計算機科學大部分是基于規則的,很像一臺汽車,我們很清楚的知道這臺車是如何組裝起來的,所以發現螺絲松了就檸緊,哪個零件老化了就換一個。完全可以做到對癥下藥。

而深度學習則完全不一樣,當我們發現問題時,不能做到對癥下藥,只能全局優化(比如灌更多的數據)。

擴展閱讀:

深度 | Nature:我們能打開人工智能的“黑箱”嗎?

打破人工智能算法黑箱

哪些問題不適合「依賴」 AI ?

由于深度學習的黑箱特性,并非所有問題都適合用深度學習來解決。

我們評估哪些問題適合,哪些問題不適合的時候,可以從2個角度來評估:

  1. 是否需要解釋
  2. 錯誤容忍度

我們先從這2個角度來看看普及率較高的AI應用:

案例 是否需要解釋 錯誤容忍度
語音識別 用戶只關心效果好不好,并不關心背后的原理是什么 偶爾出現一些錯誤并不影響對整句話的理解。少量出錯是可以接受的。
人臉識別 同上 相比語音識別,用戶對出錯的容忍度要低一些,因為需要重新刷臉。
機器翻譯 同上 跟語音識別類似,只要大面上準確,并不影響整體的理解。

我們再看一些 AI 和人力結合的具體應用:

案例 是否需要解釋 錯誤容忍度
智能客服 用戶不關心是人工服務還是機器服務,只要能解決我的問題就行 如果機器客服不能理解我的意圖,無法幫我解決問題,用戶會很不滿意。所以當機器搞不定 的時候需要人工來補位
內容審核 對于審核不通過的內容,需要解釋原因。通過的內容不需要解釋為什么。 有一種職業叫「鑒黃師」,目前正在逐步被機器替代,但是并沒有完全替代,因為有時候機器會拿不準,這個時候人工來復審

easyai公眾號

最后看一些不適合AI落地的場景:

案例 是否需要解釋 錯誤容忍度
推導定理 科學是絕對嚴謹的,一定是從邏輯上推導出來的,而不是統計出來的。 如果有例外就不能稱作定理,一定是絕對正確沒有錯誤的。
寫論文 人工智能已經可以寫小說,詩歌,散文。但是論文這種文體要求非常嚴謹的上下文邏輯。 論文里是不允許有錯誤的,全文的邏輯要非常清晰,哪怕一個細節出現了邏輯問題,也會造成整篇論文沒有價值。

如果我們把上面提到的案例全部放在象限中,大致如下:

案例在2個評估象限中的位置

所以,在評估的時候有3條原則:

  1. 解決方案越需要解釋背后的原因,越不適合用深度學習
  2. 對錯誤的容忍度越低,越不適合使用深度學習
  3. 上面2條并非絕對判斷標準,還需要看商業價值和性價比,自動駕駛和醫療就是反例。

案例分析:醫療

人工智能在醫療行業的應用被大家廣泛看好,因為醫療行業有很多痛點:

  1. 醫療資源不足,尤其是優質的醫生
  2. 醫療資源的分配極度不均衡,中國很多疾病只有北京能治
  3. 其實醫生的誤診率也很高(惡性腫瘤誤診率40%,器官異位誤診率60%)

目前的人工智能已經可以幫助人類做診斷并提供治療手段。

奇怪的是:無論是從可解釋性還是從錯誤的容忍度上來講,醫療診斷都不適合用人工智能。

但當我們將人工智能作為一種輔助,最終還是靠人類來做判斷和下決定時。人類和機器可以形成很好的互補。

工廠的發展也是類似的路徑:

  • 一開始機器只做輔助,人力是最重要的
  • 機械化和自動化的程度越來越高,機器的作用越來越大
  • 最終實現無人工廠(已經實現)

所以從「可解釋性」和「錯誤容忍度」上可以評估出來哪些問題不適合「完全依賴人工智能」。

但只要商業價值足夠大,還是有解決方案的——人類和機器相互配合,共同解決問題。并且隨著技術的進步,不斷減少對人力的需求。


0條評論 添加新討論

登錄后參與討論
Ctrl+Enter 發表