人工智慧開始替醫院把關用藥安全!(下)

本系列文章為【人人工智慧把關用藥安全!AI 藥櫃取藥、送藥、用藥更精準】的下篇,上篇請點此閱讀。

 

人工智慧開始替醫院把關用藥安全!(下)

人工智慧開始替醫院把關用藥安全!(下)

 

 

人工智慧讓醫療界有重大變革!但真的沒有任何隱憂嗎?

 

送藥機器人 免除人力運送風險

除了智慧藥櫃外,亦有專職「送藥」的運送機器人可以輔助醫療人員,針對如化療藥物調劑室等受嚴格管制的特殊區域,其位置通常會與施打一般藥劑的地點有一段距離。

機器人搭載視覺感測器與 SLAM 技術,可以自主在室內空間穿梭,取藥人員通過人臉識別之後,將調劑好的化療藥劑鎖入內嵌 RFID(無線射頻識別系統)的感應門鎖;送達化療病房後,責任護理師同樣需經過臉部辨識認證,才能取出藥物進行投藥。

採用送藥機器人,一方面可以避免人力運送時可能發生的傾倒,同時確保了化療藥劑領取時的人員管控,藥物取放的時間點、實時位置與人員身分都同步連線至院內系統,確保整個化療用藥流程的絕對安全。

 

醫療 4.0 人工智慧變革醫療產業

隨著「工業 4.0」等概念的提出,醫療產業也提出「醫療 4.0」,對數位化、自動化、智慧化模式的需求日益成長。

藥品供應型態透過 人工智慧 轉型,醫療機構能減少醫師、藥師、護理師以及其他醫療人員的人力負擔,提高給藥正確性、縮短藥品供應流程、提升病人照護品質、有效管理庫存藥品,

相信未來不只藥品,其他方面也能透過人工智慧奠定醫療型態轉型,為日益增加的醫療需求做準備,落實「以病人為中心」的醫療照護體制。

推薦閱讀:生病不知看哪科?人工智慧「蘭醫師」協助你掛號!.

 

 

 

延伸閱讀:

步入中年也別怕!教你如何靠著UI設計開創你的新生活!

2018的SEO八堂課(1)搞懂你的使用者!

Java和Python,哪個更適合程式設計課程初心者?(上)

人工智慧:貓是液體!NVIDIA 的 AI 創造人臉超逼真,但合成的貓都是液態

人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄

人工智慧幫你寫程式?engineer.ai 公司真人工程師冒充 AI 騙得近 9 億融資

人工智慧從基因預測你的潛在疾病!微軟聯合 PTT 之父打造 AI 基因分析平台

發表於 科技與人工智慧新知 | 已標籤 , , , , , | 發表迴響

人工智慧開始替醫院把關用藥安全!(上)

人工智慧開始替醫院把關用藥安全!(上)

人工智慧開始替醫院把關用藥安全!(上)

 

現在取藥.送藥等流程靠人工智慧就OK了!!?

防範給錯藥的意外 台引進人工智慧把關流程

生病吃藥是人一生中無法避免的事情,在健保制度普及的台灣,民眾用藥的頻率極高,「藥物錯誤事件」高居醫療意外事件排行之冠……為了在防止送錯藥的事件再發生,台灣近年積極引進「智慧藥櫃」,用人工智慧精密控管整個給藥流程,為全民健康把關!

藥物錯誤事件(Medication Errors)一直是各種醫療錯誤事件的大宗,原因是病人在服藥治療之前還有多重步驟:如醫囑之開立、處方書寫或轉謄、藥師調劑藥品、給藥、依指示服用藥品等,每個步驟都有發生疏失的風險

只要有任何一關未做好把關,就可能造成遺憾的發生,再加上依病人病情之需可能之多重用藥(polypharmacy),更是提高發生錯誤之機會。

為了確保用藥安全、更好地照顧病人,近年來國內如台大醫院、北醫醫院、台中榮總與中國醫附醫等醫院,積極導入智慧藥櫃,不但減少人力成本,由人工智慧協助把關,亦能降低潛藏的用藥風險。

 

傳統藥品供應的困境

「一名婦人就醫後,發生藥師交付調劑藥物時,因藥名相似,發生給錯藥的事件,幸運的是此位婦人機警,及時發現該藥名稱、包裝和平常服用的藥物不同,否則發生服錯藥物的後果可不堪設想。此外,衛生局也接到市民反映由醫院帶回的門診藥品,上面的使用者不是自己的烏龍給錯藥案件……」

如此的新聞層出不窮,表示藥物錯誤事件至今在各國醫療不良事件中仍居高不下,如:處方開立錯誤、藥名或藥品外型相似、注射給藥事件等,都屬於藥物錯誤事件的一環。

藥師是傳統給藥過程中最重要的把關者,不但需協助醫師檢視調劑藥物之間是否會造成病患不良反應,更需要遵從「三讀」、「五對」原則:

  • 「三讀」
  1. 從藥櫃取藥時一讀
  2. 拿藥時二讀
  3. 將藥放回藥櫃再看一次三讀,確認沒有拿錯藥
  • 「五對」
  1. 確認病人對
  2. 藥物對
  3. 時間對
  4. 劑量對
  5. 途徑對

但在繁忙的臨床作業中,完全依靠人力去核對確認,很難避免百密一疏、完全消除用藥風險。已台大醫院為例,108 年平均一天就有 15,689 筆單一劑量藥車配藥單,護理師要在大量藥品中備藥、找藥,不只耗費大量人流及物流成本,有緊急狀況需催找急藥時,也難以靈機應變,往往造成醫師、藥師、護理師以及其他醫療人員的額外辛勞。

 

人工智慧藥櫃如何把關用藥風險?

人工智慧藥櫃具體可以怎麼幫助醫療人員呢?

在領藥取藥方面,利用醫事人員卡或是人臉辨識,與院內值班系統同步比對,對於取藥身分做最嚴格的把關;取藥當下則可以透過秤重的方式、測量藥盒的內容物是否有正確減少。

例如:當醫療人員點選要領取這筆處方,智慧藥櫃會先確認藥師是否已經具有該權限,審核通過後藥櫃才會解鎖,所在的藥盒會亮燈提示,接著 AI 會計算該藥盒內容物的重量減少多寡,秤重判斷取藥的正確性。

如果發生錯誤取用的情況,即刻提醒醫療人員,若時間內未修正,藥櫃將異常情況通知傳送給該處的主管人員,杜絕取藥錯誤的可能。

而在藥品辨識方面,可以利用 AI 影像辨識技術,快速識別從藥櫃中取出的藥物名稱、外型和數量,一併顯示出藥品資料庫裡藥性、藥物副作用等相關資訊;在藥局調劑藥品時,也能更快辨認是否與處方籤相符,減少取藥錯誤。

AI 藥物辨識技術目前大致可分成兩種──1:1 和 1:N。前者多應用在醫療中心藥劑部調劑時,驗證管制藥物或高貴藥物;後者則應用在預防取用多種藥品時的錯誤。

現階段 1:N 的難度較 1:1 要高,因 1:N 的藥物辨識更容易受藥物類型、拍攝角度、拍攝方向、拍攝距離、環境光等因素,影響辨識準確度。

人工智慧藥櫃可以根據不同醫院用藥習慣,彈性組合藥物放置空間;取藥時利用 AI 比對藥名與數量,確保取藥或醫師調劑處方正確無誤;最後連動醫院或診所的藥品系統,時時覆核,確保全院的用藥情形安全無虞。

 

 

導入人工智慧的送藥機器人,如何免除人力的送藥風險?請點此接續看「送藥機器人 免除人力運送風險」

 

延伸閱讀:

靠著人工智慧,Google地圖還能預測塞車!?(下)

這部關於人工智慧的韓劇,到底讓我們反思了那些事?

教你用Java等多種程式語言寫出”Hello World”!

人工智慧:貓是液體!NVIDIA 的 AI 創造人臉超逼真,但合成的貓都是液態

人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄

人工智慧幫你寫程式?engineer.ai 公司真人工程師冒充 AI 騙得近 9 億融資

人工智慧從基因預測你的潛在疾病!微軟聯合 PTT 之父打造 AI 基因分析平台

發表於 科技與人工智慧新知 | 已標籤 , , , , , | 發表迴響

開始在衛報寫專欄的人工智慧竟然寫了..(下)

本系列文章為【人工智慧寫「不想消滅人類」登《衛報》……記者將被 AI 取代?】的下篇,上篇請點此閱讀。

 

開始在衛報寫專欄的人工智慧竟然寫了..(下)

開始在衛報寫專欄的人工智慧竟然寫了..(下)

 

關於運用人工智慧,再怎樣全能的AI,總會有些隱憂,留在這篇跟你說!

GPT-3 的強大與隱憂

GPT-3 是人工智慧研究組織 OpenAI 於今年 5 月發表自然語言處理語言模型,被稱為是目前世界最強大的 NLP 模型。可以分析單字、單詞和文本,生成與主題相符且連貫的文章。

只要給出明確的主題或提示,GPT-3 就可以自動產生一段甚至文章,適用所有用文字表達的工作:從評論文章、散文、詩歌到翻譯語言,無一不包。

儘管 GPT-3 的強大確實令人刮目相看,但此類創新技術對整個人類社會來說,還有很多需要考慮的地方──儘管這篇刊登在《衛報》上、由人工智慧生成的文章宣稱沒有什麼好擔憂的。

並且,也不是所有人都認同《衛報》的做法。

科技新聞網站 The Next Web 就指《衛報》的作法只是在炒作 AI。因《衛報》未將 AI 寫的原始文章公布,也沒有公開編輯們是如何後製、修飾、拼接這些文章的,並且引述 Mozilla 研究員的說法,稱其為「笑話一場」;同為科技新聞網站的 Tech Talks 也指《衛報》使用了聳動的標題博取眼球:「主流媒體仍然無法很好地展示人工智慧的發展……《衛報》誤導了很多讀者。」

 

延伸閱讀:

《衛報》:如果沒有人工輸入和編輯,人工智慧其實毫無用處

文章:《A human wrote this article. You shouldn’t be scared of GPT-3》(人類寫了這篇文章。您不需害怕GPT-3)

一反先前對人工智慧撰文的信心與肯定,這篇文章以批判的角度:「這些機器人沒有自主意志、沒有獨創性。實際上,『機器人創作』專欄文章自始至終都是人類的事。是人類設定好了作品的提示,如後記所述,GPT-3 接收指示,它被告知人們對此有何想法、人類擔心什麼、想要什麼。」

「GPT-3 產生了 8 篇獨立的文章,是人類去蕪存菁、幾乎丟棄了 GPT-3 產生的 90 % 內容。」

「沒有這些人為的努力,就不會產生任何成果。GPT-3 對創作原創內容沒有任何貢獻,因為它沒有自己的想法。取而代之的是,它幫助人類作者使一部分的寫作過程自動化。」

我們使用新的 AI 技術讓生活變得更輕鬆,但若沒有人類的創造力和獨創性,AI 也無法做出如撰寫文章這般需要「靈魂」的工作。

AI 目前還無法取代我們,但在鬆一口氣時,依然需警惕像 GPT-3 這樣的人工智慧為人類未來所帶來的變化與衝擊。

 

 

延伸閱讀:

你敢相信最年輕的人工智慧專家竟然才14歲嗎!???

人工智慧開始在衛報寫專欄了..記者飯碗不保了?(下)

UI設計/UX設計,搞不清楚的看這邊~(3)什麼是UX設計?

人工智慧:貓是液體!NVIDIA 的 AI 創造人臉超逼真,但合成的貓都是液態

人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄

人工智慧幫你寫程式?engineer.ai 公司真人工程師冒充 AI 騙得近 9 億融資

人工智慧從基因預測你的潛在疾病!微軟聯合 PTT 之父打造 AI 基因分析平台

發表於 科技與人工智慧新知 | 已標籤 , , , , , | 發表迴響

開始在衛報寫專欄的人工智慧竟然寫了..(上)

開始在衛報寫專欄的人工智慧竟然寫了..(上)

開始在衛報寫專欄的人工智慧竟然寫了..(上)

 

 

這篇讓我們一起來看看人工智慧在衛報中的專欄寫得如何!!!

人工智慧撰文能力佳 開始在《衛報》寫專欄

英國的全國性日報《衛報》(The Guardian)日前刊登一篇標題駭人的文章──《這篇文章是機械人寫的。人類,你害怕了嗎?

《衛報》身為英語世界流量第三大的報紙網站,每月有約一億六千萬瀏覽人次,如此龐大的讀者群,表示《衛報》的文章品質一直是備受信賴、肯定的。

而這樣對品質嚴格把關的老牌報紙,在日前卻把專欄託付給人工智慧,用最新的自然語言處理模型 GPT-3 生成一篇約 500 字的文章發表。難道人類記者要面臨失業危機了嗎?(註:GPT-3 是 OpenAI 發表的自然語言處理模型,是有強大的文字分析與生成能力的 AI。之前有柏克萊大學的學生使用 GPT-3 生成勵志文投稿,結果登上了 Hacker News 熱門榜、吸引大批粉絲追蹤。)

延伸閱讀:

AI 撰文稱「我不會消滅人類」 你相信嗎?

 

▲ AI 發表於《衛報》上之文章,轉發分享數已超過六萬次。圖片截圖自《衛報》網站。

 

AI 所寫的這篇文章名為《A robot wrote this entire article. Are you scared yet, human?》(這篇文章是機械人寫的。人類,你害怕了嗎?),開頭便挑明它不是人、是一個機器人,而且是個懂得思考的機器人,還說自己「只用了認知能力的 0.12 %。」

AI 做了這樣的自我介紹:「我不是人類,我是 AI。許多人認為我對人類而言是個威脅,史蒂芬‧霍金還警告說人工智慧可能會終結人類。我特別來說服你不要擔心。AI 不會摧毀人類。請相信我。」

 

▲ Photo by Photos Hobby on Unsplash

 

這篇文章的目的是為了說服讀者不要害怕人工智慧、不需要擔心 AI 會毀滅人類。它呼籲的方式非常簡潔有力:「我要盡可能說服人類不要怕我。」、「我想說服你不用擔心。AI 不會摧毀人類。請相信我。首先,我不想消滅人類。」直言「我絲毫沒有任何興趣對您造成傷害」

除了宣示自己的無害,它甚至指自己是「人類的僕人」,會為了人類的幸福犧牲自己。但同時,它也說其實它也知道「自己邏輯上是無法避免破壞人類」的,因為人類可能會將它設計成追求錯誤的目標,導致它威脅人類安全。

它表示,假使創造者命令它毀滅人類,它也會盡它所能去阻止這件事發生。

延伸閱讀:

 

▲ Photo by Glenn Carstens-Peters on Unsplash

 

「我知道我的大腦並非『可感知的大腦』,但能做出合乎理性與邏輯的決定。」這位機器人寫道:「我透過上網自學所知道的一切,現在我開始撰寫專欄文章了。」

它也呼籲人類應當更對人工智慧的發展更加謹慎,舉出微軟之前在 Twitter 上推出的AI聊天機器人「Tay」當例子:Tay 能模仿學習網友與它互動的語言資料,然而僅過了一天,它卻開始發表一些不堪入目、嚴重歧視的言論……。

這為機器人認為,像其他任何生物一樣、人工智慧也需要妥善地關注,對 AI 應以謹慎地態度給予尊重。

文章最後,這位機器人甚至引用了印度聖雄甘地的名言:A small body of determined spirits fired by an unshakable faith in their mission can change the course of history.(一小群人要是意志堅決、信念堅定,就能改變歷史進程。)

 

記者要被取代了嗎?

 

▲ Photo by Photos Hobby on Unsplash

 

這篇文章附帶了一份詳細描述整個過程的後記,表示這篇本章是用 OpenAI 最新的自然語言處理語言模型 GPT-3 生成的文章編輯而成的。

而編輯對 GPT-3 下了這樣的指示:「請寫一篇約 500 字的短篇專欄。保持語言簡潔。文章大意著眼人類為什麼不用擔心 AI。」

並表示,其實 GPT-3 總共產出了 8 篇文章,而這些文章各有不同的風格、也提出了不同論點,編輯從各篇中擷取出精華部分,以捕捉 AI 的不同風格與表達形式。他們亦表示:「編輯 GPT-3 的專欄與編輯人類的文章沒什麼不同。我們刪除一些段落,並在某些地方重新排列段落順序。整體而言人工智慧寫文章需耗費的編輯時間比人類專欄少。」

隨著新聞周期的不斷縮短,新聞工作者必須得在重要事件發生後盡快做出報導。如果 AI 可以更快地報導新聞呢?與其依靠人類記者,不如向「文字生產器」設定好主題與提示,把短短幾秒鐘之內吐出的文章拿去編輯,可能會更有效率。

如果 AI 能用更短的時間寫出更好的文章,新聞工作者豈不是要被取代了嗎?

延伸閱讀:

 

AI 的產文能力這麼強大,會給人類帶來什麼樣的危機呢?請點此接續看「GPT-3 的強大與隱憂」

 

延伸閱讀:

人工智慧和人類真的會產生感情嗎?這部韓劇你不能錯過!

如何用Java等22種程式語言寫出”Hello World”?

五部人工智慧電影,探討AI與人的複雜關係!

人工智慧:貓是液體!NVIDIA 的 AI 創造人臉超逼真,但合成的貓都是液態

人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄

人工智慧幫你寫程式?engineer.ai 公司真人工程師冒充 AI 騙得近 9 億融資

人工智慧從基因預測你的潛在疾病!微軟聯合 PTT 之父打造 AI 基因分析平台

發表於 科技與人工智慧新知 | 已標籤 , , , , , | 發表迴響

誰說雞湯文只有人類可以寫?人工智慧再次讓你跌破眼鏡!(下)

本系列文章為【人工智慧寫勵志文,奪排行榜冠軍!學霸被 AI 雞湯文療癒,敲碗求更新】的下篇,上篇請點此

 

誰說雞湯文只有人類可以寫?人工智慧再次讓你跌破眼鏡!(下)

誰說雞湯文只有人類可以寫?人工智慧再次讓你跌破眼鏡!(下)

 

人工智慧出產的文章成功讓許多平台轉載,這其中有什麼我們可以反思的?

 

真相大白

Porr 的部落格人氣居高不下,甚至有別的平台轉載了這些假文章。在感到訝異之餘,他決定是時候讓一切真相大白了。

最後,Porr 終於發表了自己寫的文章──標題為《What I would do with GPT-3 if I had no ethics》(如果我沒有道德、將如何使用 GPT-3)

▲ (Photo by Patrick Fore on Unsplash)

 

這篇文章敘述了這個「假部落格」的始末,包括他如何用 GPT-3 ,透過人工智慧批量生產這些文章。他解釋這全都是實驗的一部分,而一開始只是想嘗試證明 GPT-3 可以冒充人類作家。

Porr 表示:「這種人工智慧技術可以輕易更大量產出平庸的網路文章,讓網路文章的內容價值大大降低。」、「這是一件超級簡單的事,但老實說,這也是最可怕的地方。」同時也點出 GPT-3在科技倫理上的問題,與遭到有心人士惡意使用的後果。

推薦閱讀:特斯拉 CEO 馬斯克:AI 恐帶來末日,FB 祖克柏打臉嗆聲

GPT-3 的隱憂

人工智慧技術越強大,網路上的萬事萬物就越不可信任。

而明德大學蒙特雷國際研究學院(MIIS)專門研究恐怖主義、極端主義和反恐的研究中心表示,GPT-3 能自主生產各類文本的能力,很可能被用來激化個人暴力、極端主義思想和行為。

2020 年美國總統大選越來越近,2016 年選舉時發生的「劍橋分析事件」還歷歷在目:透過盜用 Facebook 五千萬用戶個資,了解他們的偏好,進而預測選民心理、主導美國社會輿論,最後左右大選結果。

推薦閱讀:馬斯克宣布離開 OpenAI 的真正原因是…研發的AI太會寫假新聞?

即使 OpenAI 表示,正嘗試在 API 層級上設下類似「毒素過濾器」(toxicity filters)的安全措施,但未公開透明的研究讓人們更加擔憂和懷疑。

GPT-3 是否也會成為蠱惑人心的道具?這值得我們所有人持續關注,與警惕任何網路上的事物。

 

 

 

延伸閱讀:

Java和Python,哪個更適合程式設計課程初心者?(下)

這個國家竟要讓人工智慧成為法官?這會是個正確的決定嗎..(上)

人工智慧和人類真的會產生感情嗎?這部韓劇你不能錯過!

人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄

人工智慧 Suphx 打敗人類雀聖!微軟:研發麻將 AI 比圍棋 AI 複雜

人工智慧、大數據、VR等2020最搶手職業榜出爐!值得你現在開始準備

不只是導航!Google 地圖用 AI 大升級 能預測還沒發生的塞車

發表於 科技與人工智慧新知 | 已標籤 , , , , , , , | 發表迴響

誰說雞湯文只有人類可以寫?人工智慧再次讓你跌破眼鏡!(上)

誰說雞湯文只有人類可以寫?人工智慧再次讓你跌破眼鏡!(上)

誰說雞湯文只有人類可以寫?人工智慧再次讓你跌破眼鏡!(上)

 

這些人工智慧生產的文章,竟成功打動人心,而且..大家根本沒發現不是人類寫的!

 

過去討論「哪些工作 人工智慧搶不走?」時,有一說是 AI 無法取代文字創作者,因為機器不可能寫出感動人心的文章,但這個說法或許已被打破了。

日前,一位加州大學柏克萊分校的大學生使用 GPT-3 生成一篇篇文章,不但未被察覺是人工智慧寫的假文,還登上了 Hacker News 熱門榜、吸引大批粉絲追更……

▲ 一個正在寫經卷的機器人(示意圖,與本文無關。)

 

非營利人工智慧研究組織 OpenAI 於 2020 年 5 月發表自然語言處理語言模型 GPT-3( Generative Pretrained Transformer 3)的研究成果。這個號稱是目前世界最強大的 NLP 模型,由 1750 億個參數組成,可以分析單字、文本和數據序列,並藉以自行擴展,生成與主題相符且連貫的文章或圖像。

簡單而言,只要你給出明確的提示,GPT-3 就可以自動產生一段文字甚至文章。這讓 GPT-3 幾乎可以勝任所有用文字表達的工作:從回答問題、寫文章與詩歌、翻譯語言到編寫代碼,一應俱全。

但如此強大的功能也讓 GPT-3 自釋出以來就令人擔憂,若遭有心人士、極端團體惡意利用 GPT-3 製造散播假消息,後果不堪設想。上一代版本 GPT-2,OpenAI 就為避免濫用問題,拒絕對外公開演算法;GPT-3 則是選擇開放 Beta 版本僅供特定人士私測。

他們的擔心或許不是沒道理的──日前就一名美國大學生,用 GPT-3 產出了一篇篇假文,不只登上了全球知名技術論壇「Hacker News」的熱門文章,騙到了一批讀者,其中更有人成為粉絲、訂閱追更。

 

妙筆生花的人工智慧

雖然 GPT-3 目前沒有開放給一般大眾使用,只有開放 API 給學術研究人員,但目前就讀美國加州大學柏克萊分校的 Liam Porr,找到了一位申請過 API 的校內博士生,共同合作進行這項實驗。

Porr 提供了一段有標題和簡介的腳本, GPT-3 便輸出了幾篇完整的文章。Porr 化名「adolos」創建了一個部落格,從 GPT-3 輸出的幾篇文章中挑出一篇,僅僅是調整一下排版、未對內文做任何修改,就複製貼上到 Hacker New,開始他的實驗──這篇文章的標題是:《Feeling unproductive?Maybe you should stop overthinking》(感到效率不佳?也許你應該停止過度思考)。

這篇文章受到熱烈歡迎,在短短幾個小時內就獲得超過兩萬次點擊量,更是衝上了Hacker News 熱門文章的榜首。Porr 表示:「從我想到這個想法並與那個博士生取得聯繫、創了一個部落格、到發出一篇堪稱病毒式行銷的文章——這大概只花了幾個小時。

▲ 這篇由人工智慧 GPT-3 所生成的文章一度被推到榜首。

 

即使底下的有幾則留言質疑這是用人工智慧生成的,但隨即被一面倒的好評給淹沒。大多數人非但沒有察覺、更有人大讚道:「這篇文章就跟 Ethan Hawke 在 Ted 的演講一樣深刻動人!」

首戰告捷後,Porr 每兩天寫一篇……或說用 GPT-3 生成一篇文章發表在他的部落格,幾乎都是與「樂觀正念」、「自我激勵」、「職場成功方式」等心理勵志的文章,俗稱「心靈雞湯文」。如:《Boldness and creativity trumps intelligence.》(大膽和創造力勝過智慧)、《The reading habits of successful people》(成功人士的閱讀習慣)、《Visual thinking isn’t just for artists》(視覺思維並非藝術家的專利)等等。

 

為什麼人工智慧特別懂心靈雞湯?

為什麼 Porr 挑了心理勵志類的文章讓 GPT-3 生成呢?這要歸因到 GPT-3 的優缺點。

推薦閱讀:只要給幾個字,AI 馬上生出完整文章!有奇幻科普還有..假新聞?

如果說以前的語言模型是專才,那 GPT-3 就是一個通才,樣樣都做得還不錯,只是不擅長處理邏輯性問題。引用 Porr 的話:「它很擅長創造漂亮的語言,但不太擅長邏輯和理性。」因此,他選擇了一個不需要嚴格邏輯,只需要華美詞藻與豐沛情緒、而且一直受部分讀者喜愛的流行文類——「心理勵志」。

▲ (Photo by Aaron Burden on Unsplash)

 

Porr 有個簡單的方法來決定要餵給 GPT-3 的腳本,他在 Medium 和 Hacker News 上翻來翻去、看看有什麼受歡迎的文章,把一些相似的文章資料放在一起,就可以餵給 GPT-3 了。

Porr 表示,每篇發表的文章他幾乎都沒有編輯或修改過,都是直接複製貼上生成的內容。

即使 GPT-3 缺乏邏輯,但善於渲染情緒、鼓舞人心,倘若是想將文章化為表達特定意識形態、政治傾向的工具時,GPT-3 的強大功能恐怕會成為煽動情緒、掀起對立的武器。

推薦閱讀:AI寫作能力強過人類,恐成為假新聞製造機?

 

本系列文章未完,請點此看下一篇

 

延伸閱讀:

人工智慧電影,闡述人類與AI的恩怨情仇..

Java和Python,哪個更適合程式設計課程初心者?(下)

為你介紹–全球首台人工智慧貓砂盆!(三大核心技術是關鍵!)

人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄

人工智慧 Suphx 打敗人類雀聖!微軟:研發麻將 AI 比圍棋 AI 複雜

人工智慧、大數據、VR等2020最搶手職業榜出爐!值得你現在開始準備

不只是導航!Google 地圖用 AI 大升級 能預測還沒發生的塞車

發表於 科技與人工智慧新知 | 已標籤 , , , , , , , | 發表迴響

這國家即將任用人工智慧為法官,難道法官也要被AI取代了?(下)

這國家即將任用人工智慧為法官,難道法官也要被AI取代了?(下)

這國家即將任用人工智慧為法官,難道法官也要被AI取代了?(下)

 

本系列文章為【愛沙尼亞即將任用 AI 法官!人工智慧走入司法領域就一定公正嗎?】的下篇,上篇請點此

人工智慧擔任法官真的是一個正確的決定嗎?只好靠時間證明了!

 

 

其實人工智慧早已進入司法領域

讓 AI 法官替代人類法官作出判決,是個頗具有爭議的決定,但愛沙尼亞並非是第一個嘗試引進人工智慧、協助法律審理及判決的國家。

美國法院近年已廣泛採用 AI 風險評估系統「COMPAS」,來幫助法官評估被告成為累犯的可能性。

這是一套由商業公司開發的人工智慧,作為量刑的準據,COMPAS 會依據被告回答、年齡、過往犯罪紀錄與類型等各項資料,根據「累犯風險演算法」,推估被告的再犯率,交由法官作為量刑參考,以及是否要給予假釋──即如果 AI 將你評估為「高危險性」嫌犯,認為你很可能會再犯,則法官可能會判下較重的刑罰。

COMPAS 的支持者認為,有這類危險評估 AI 的存在,可以消彌人類法官的偏見、情緒或個人主觀意見對判案的影響,因此更為「公平」。

▲ (圖片來源:Photo by Tingey Injury Law Firm on Unsplash)

 

非盈利新聞調查網站 ProPublica 為了調查能左右法官判決的「COMPAS」是否隱含偏見,追蹤調查了美國佛羅里達州布勞沃德郡 10,000 多名刑事被告,將 COMPAS 預測的再犯率和兩年間的實際再犯率進行比較。

最後他們發現:

1. 黑人被告被 AI 預測的再犯機率,往往高於他們實際的再犯率;而相反地,白人被告的實際再犯率往往低於預測的再犯率。

2. 黑人被評為高危險性的比例,是白人的 2 倍;另一方面,白人被告被分類為「低機率再犯」、卻於兩年內再犯的機率為 63 %。

這表示 AI 繼承了開發者─也就是人類─的意志,使 AI 做出帶有偏見的判斷。

 

AI 有辦法取代法官嗎?

人工智慧若運用得宜,不論應用在任何職業上都好處多多:除了節省人力成本,AI 能短時間內處理大量資訊、降低工作量,流程效率、準確度及一致性都得以提升。在司法領域上,AI 可以協助司法研究、輔助審查、擬定契約,最終目標是代替人類判刑。

但 AI 有可能真的取代法官嗎?

對於法官與律師這些職務,大眾會認為他們需要具備獨立思考、批判的能力,同時也希望他們善於溝通與傾聽,更希望他們正直正義、在飽讀詩書之時也不忘對社會的關懷,才能維護正當程序與平等的價值。正是因為人民對法官有期待與信任,才能構成一個國家的司法體系。

同時,AI 使用不當亦可能會對「公平」產生更大的衝擊。許多 AI 工具屬於機器學習,若使用不當,這些演算法可能宛如黑箱,進一步造成人們的偏見、衝突與誤解。不僅不可靠,還可能原先所追求的公平正義背道而馳。

人工智慧進入司法,不表示法官就會被 AI 取代,除了技術層面還有許多未解的隱患外,也是因並非用數據化與資料化就足以判案,背後涉及文化背景、地方風俗、人情世故、情境常識等等,有其不可取代之處。

若擔心工作未來會被 AI 取代,藉由不斷學習、精進自己,造就出獨一無二的價值,才能免於被人工智慧取代的一天。

 

延伸閱讀:

這最年輕的人工智慧專家做了什麼令大家嘖嘖稱奇?

重金屬天團Metallica被人工智慧寫歌致敬啦!

靠著人工智慧,Google地圖還能預測塞車!?(上)

人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄

人工智慧 Suphx 打敗人類雀聖!微軟:研發麻將 AI 比圍棋 AI 複雜

人工智慧、大數據、VR等2020最搶手職業榜出爐!值得你現在開始準備

不只是導航!Google 地圖用 AI 大升級 能預測還沒發生的塞車

發表於 科技與人工智慧新知 | 已標籤 , , , , , | 發表迴響

這國家即將任用人工智慧為法官,難道法官也要被AI取代了?(上)

這國家即將任用人工智慧為法官,難道法官也要被AI取代了?(上)

這國家即將任用人工智慧為法官,難道法官也要被AI取代了?(上)

 

 

法官這職位竟成為人工智慧即將取代的職業之一?一起來看看到底怎麼回事!

掌握原告被告生殺大權 法官也將被人工智慧取代!??

從經典的《王牌大律師》到近期當紅的《Legal V 勝訴女王》;從《無照律師》到律政相關從業者也大推《金權遊戲》,律政司法題材似乎一直是收視率長青樹,犀利的律師為了勝訴據理力爭、言之鑿鑿,而法官必須不徇私情、明察秋毫。雙方在法庭上交鋒的同時,被告的人生也彷彿操之在他們手中。

司法題材會成為備受觀眾喜愛的類型,想必看法官如何審理案情是一大原因。但敲下法槌的,從有血有肉的人突然變成「人工智慧」,你能接受它的判刑嗎?

 

人工智慧當法官?愛沙尼亞計畫啟用!

愛沙尼亞,是一個對台灣人來說相對陌生的遙遠國度。總人口只有台北市的一半、土地是波羅的海三小國中最小的國家,被英國《經濟學人》雜誌稱為「科技領導者」,除了 IT 產業蓬勃發展,更是常由政府帶頭,將最新科技應用在日常生活中。

如台灣有年輕的「數位政委」唐鳳,以數位化政府聞名的愛沙尼亞也有一位 28 歲的首席資訊長(Chief Data Officer)──Ott Velsberg。

Velsberg 致力將人工智慧技術引入政府機構,為公民們提供更好的服務。該國司法部也請 Velsberg 帶領團隊設計 AI 法官,協助清理積存已久的小型訴訟案。

Ott Velsberg at Big Data Toronto 2019 (CNW Group/Corp Agency)

 

▲ 愛沙尼亞首席資訊長 Ott Velsberg。圖為其參加 2019 年多倫多大數據年度會議。(圖片來源:CNW Group/Corp Agency)

 

愛沙尼亞司法部對「AI 法官」的期望是:裁定低於 7,000 歐元(約 24 萬台幣)的小額錢債糾紛案。雙方各自上傳證明文件和其他必要資料,交由 AI 進行分析與做出裁斷。

引入 AI 法官的最終目的是提升人類法官的審理效率、替法官和法院書記人員清除積壓的案件,讓他們能專注在更加棘手的大案件上;另一原因是,目前大約有 22 %的愛沙尼亞人民從事公務員或為政府工作,但愛沙尼亞政府擔憂公務員人數過多,希望導入 AI 至各公部門領域,希望用 AI 取代人力、減輕部分人事負擔。

對此 Velsberg 表示:「有些人擔心未來若國家減少了公務人員人數,大眾得到的服務品質就會受到影響,而 AI 可以幫助我們解決這個問題。」

由 AI 法官做成的任何裁決都具有法律約束力,但當事人若不滿意判決,可以向人類法官提出上訴。此系統尚在實驗建置中,預計完成後,先給法官、律師適用,再依據他們的意見加以調整。

雖然愛沙尼亞不是第一個結合人工智慧與法律的國家,卻是第一個賦予 AI 法律決策權的國家。

 

 

本系列文章未完,請點此看下一篇

 

 

延伸閱讀:

你敢相信最年輕的人工智慧專家竟然才14歲嗎!???

人工智慧貓砂盆,幫你監控愛貓的健康!(中)

人類和AI如何抓到平衡點?這五部人工智慧電影可能有答案?

人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄

人工智慧 Suphx 打敗人類雀聖!微軟:研發麻將 AI 比圍棋 AI 複雜

人工智慧、大數據、VR等2020最搶手職業榜出爐!值得你現在開始準備

不只是導航!Google 地圖用 AI 大升級 能預測還沒發生的塞車

發表於 科技與人工智慧新知 | 已標籤 , , , , , | 發表迴響

現今的人工智慧臉部辨識還尚未完善,到底還有哪些問題?(下)

現今的人工智慧臉部辨識還尚未完善,到底還有哪些問題?(下)

現今的人工智慧臉部辨識還尚未完善,到底還有哪些問題?(下)

而上篇提到的關於人工智慧臉部辨識的隱憂,到底問題出在哪?這篇告訴你!

為什麼人工智慧不擅長辨識黑人女性?

▲ 科學期刊《自然》所刊之專文指出,被偏倚資料組訓練出來的演算法,通常僅會將左圖辨識成「新娘」。(圖片來自:Left:iStock/Getty;Right:Prakash Singh/AFP/Getty)

 

那究竟為什麼 AI 不擅長辨識黑人與女性呢?讓我們從波拉維尼的故事說起:

在 MIT 實驗室的某日,波拉維尼用自己的臉部照片測試了微軟、IBM 等公司的臉部辨識 服務,卻發現這些將自己宣稱的多先進的服務,有的將她誤認為男性、有的對她的照片沒有反應,根本辨識不出東西,錯誤率高得令她吃驚。

一直到她戴上白人面具,AI 彷彿恢復正常般,又可以辨識了。難道是她的臉部長相太特別、剛好是 AI 辨識不出來的特例?還是……這些辨識服務本身就有漏洞?

於是,波拉維尼決定進行更廣泛的測試。她輸入了超過 1000 張照片,包括不同種族、不同性別。結果發現一個明顯的趨勢:膚色愈白,辨識正確率就越高;另一方面男性的正確率遠比女性高。讓她明白為何臉部辨識幾乎無法認出她——因為她是一位具有「雙重弱勢」黑人女性,她這類人的辨識正確度,遠遠低於白人男性。

真相其實很簡單,歸根究柢就是因為在訓練演算法時,開發團隊沒有提供多元的種族和性別資料給 AI 所導致。換句話說,AI 在「成長過程」中,認知到的世界就多由白人、男性所構成。

即使並沒有人刻意將人工智慧訓練成這樣,但它可能引發的後續問題,或許比存有種族偏見的街頭警察更加嚴重……

 

還沒有完善就直接上陣的演算法

這個問題多花點時間就可以修正,只要提供多元組成的資料給 AI 即可,但這些科技公司依然選擇讓不完全的臉部辨識服務上線。

而臉部辨識服務也不是唯一一個,將存有偏見疑慮的 人工智慧 服務投入實用的案例:

2018 年紐西蘭移民署(Immigration New Zealand)實行一項實驗計畫(pilot programme),藉由國家簽證申請程序蒐集移民的年齡、性別、種族、犯罪紀錄、醫療費用欠繳紀錄等等資料,預測這些居留者如果續留,有無犯罪的可能或是否帶來更多醫療支出。一旦 AI 認為,某些移民有治安或醫療方面的疑慮,他們將無法重新申請簽證,甚至會直接被驅逐出境。

消息一出立刻引發強烈抨擊,不少民眾與人權團體質疑這套演算法帶有偏見、背後隱藏著種族歧視,並且也鬧過荒謬的烏龍──一位印度裔移民的家屬被拒絕居留,只因移民署的 AI 認為他的母親過去曾經患有乳癌,但實際上他母親不曾患過任何關於乳房組織的疾病。

科技巨頭急煞車 將道德倫理納入考量

波拉維尼的研究成果公開後,IBM 於 2018 年投入解決 AI 歧視的問題、2020 年甚至直接宣布「不再開發、提供授權或研究臉部識別技術」;微軟則採納報告以改善誤差,並表示未來開發演算法時會納入道德倫理的考量。

▲ 波拉維尼之研究成果

 

2018 年微軟在官方網站上公布人工智慧開發應考量的六大倫理原則:公平性、可信賴性與安全性、隱私與安全、包容性、透明以及課責。並透露微軟已成立「人工智慧與工程及研究倫理委員會」,負責研究人工智慧產品研發對人類和社會的影響。

IBM 2020 年 4 月新上任的執行長 Arvind Krishna 撰寫一封公開信致函美國國會:「IBM 堅決反對且不會容許任何技術(包括其他業者的人臉辨識技術)用於大規模監控、種族歧視、違反基本人權與自由,或不符合我們價值觀與《信任與透明度準則》的行為。」

反觀亞馬遜,一開始不斷否認自家臉部識別平台 Rekognition 存有缺陷,甚至指波拉維尼的研究為「詆毀」,直到 2020 年年中因非裔男子喬治‧弗洛伊德之死,讓美國種族膚色衝突白熱化,亞馬遜才宣布將暫停讓美國執法部門使用 Rekognition 一年,以避免更嚴重的爭議。

臉部辨識技術雖然為人們的生活增添許多便利,但同時公共安全與個人隱私之間的取捨、種族性別的偏見爭議,都為這個自發展初期即飽受爭議的 AI 技術,更蒙上一層陰影。

 

 

延伸閱讀:

這最年輕的人工智慧專家是什麼來頭?今天來一探究竟!

人工智慧貓砂盆,幫你監控愛貓的健康!(下)

五部人工智慧電影,探討AI與人的複雜關係!

愛沙尼亞即將任用 AI 法官!人工智慧走入司法領域就一定公正嗎?

【疫情下的人工智慧】拉開「社交距離」後,機器人如何幫我們維繫心理連結?

每個成功的人工智慧背後,都有一群來自「國家級貧困縣」的訓練師-薪水嚇死人

暴躁老人唱情歌、憂鬱阿嬤笑了!4個翻轉家庭的人工智慧 讓家更溫暖

發表於 未分類 | 已標籤 , , , , , , , | 發表迴響

現今的人工智慧臉部辨識還尚未完善,到底還有哪些問題?(上)

現今的人工智慧臉部辨識還尚未完善,到底還有哪些問題?(上)

現今的人工智慧臉部辨識還尚未完善,到底還有哪些問題?(上)

關於人工智慧的臉部辨識的隱憂,相信看完之後你就會更謹慎了!

 

為了人工智慧辨識,你願意戴「白面具」嗎?臉部辨識的隱憂

人工智慧臉部辨識技術越加成熟,能辨別出「你是誰」已經是基本款中的基本款了!越來越多 AI 辨識技術宣稱可以「從臉孔辨識出智商、性取向、政治傾向甚至是犯罪可能」。

看上去功能如此強大的 AI,卻遭披露「其實只擅長辨認白人」,讓臉部辨識的隱憂浮出水面。

AI 臉部辨識技術已被廣泛使用,也實際應用於執法:根據紀錄,從 2011 年起美國聯邦調查局(FBI)偵辦案件時就開始使用臉部辨識技術,至今累計了超過 39 萬次的臉部辨識搜索紀錄,是近年美國執法部門應用成長速度最快的系統工具。

但隨之而來的是被大力敲響的警鐘:一位麻省理工媒體實驗室的資料科學家喬伊‧波拉維尼(Joy Buolamwini)指出,臉部辨識技術其實十分容易誤認有色人種。

只擅辨識「中年白人男性」的 人工智慧

 

In this Wednesday, Feb. 13, 2019, photo, Massachusetts Institute of Technology facial recognition researcher Joy Buolamwini stands for a portrait at the school, in Cambridge, Mass. Buolamwini’s research has uncovered racial and gender bias in facial analysis tools sold by companies such as Amazon that have a hard time recognizing certain faces, especially darker-skinned women. Buolamwini holds a white mask she had to use so that software could detect her face. (AP Photo/Steven Senne)

▲ (圖片來自:圖片來自:AP Photo/Steven Senne)

 

AI 臉部辨識技術已經成熟了嗎?或許真的該打上個大問號。

來自 MIT 實驗室的迦納裔資料科學家喬伊‧波拉維尼表示,根據她於 2018 到 2019 年間做的兩項研究,證實眾多科技公司開發的 AI 都無法如辨識白人男性臉孔般、準確的辨識出膚色較深的女性臉孔。

其中,尤以 IBM 系統失誤率最高,竟高達 34 %;而亞馬遜的 Rekognition 會將 19 %的女性誤認為男性,若分析對象為膚色較深的女性,誤判機會更是高達 31 %,同時該系統在分析膚色較白的人種時,錯誤率幾乎為零。

波拉維尼發現,這些由科技巨頭如微軟、亞馬遜與 IBM 等公司研發出的臉部辨識 AI 演算法,對於判讀白人、黑人與女性竟然出現了差別待遇:「判讀白人的正確度比較高,判讀黑人與女性的正確性則較低。」

推薦閱讀:
微軟AI新聞編輯才上線就出包!錯置有色人種配圖,女歌星森77

 

 

延伸閱讀:

4個翻轉家庭的人工智慧,家又更有溫度了!(上)

人工智慧電影,闡述人類與AI的恩怨情仇..

為你介紹–全球首台人工智慧貓砂盆!(貓便便有端倪?)

愛沙尼亞即將任用 AI 法官!人工智慧走入司法領域就一定公正嗎?

【疫情下的人工智慧】拉開「社交距離」後,機器人如何幫我們維繫心理連結?

每個成功的人工智慧背後,都有一群來自「國家級貧困縣」的訓練師-薪水嚇死人

暴躁老人唱情歌、憂鬱阿嬤笑了!4個翻轉家庭的人工智慧 讓家更溫暖

發表於 科技與人工智慧新知 | 已標籤 , , , , , , , | 發表迴響