現在的假新聞已經夠多了!!沒想到人工智慧又來湊一腳!?
這台人工智慧機器輕易製造出似是而非,似真非真的文章,且風格多變,看來這如果管理不當,將對人類造成巨大影響!
產出「可信度高」的假新聞與文章
擁有強大撰文能力的 AI「GPT-2」出自特斯拉的 CEO 馬斯克所投資的人工智慧研究團隊「OpenAI」。它可以替各種題材、風格的文章產出續集內容,且會依照原著的寫作風格與陳述內容呼應銜接,無論是經典名作 (點我看範例) 或是現代科普 (點我看範例),通通難不倒它。
Python課程的老師在課堂上為我們舉了例:根據英國媒體《衛報》(The Guardian)報導:將一則關於英國脫歐的新聞,其中的第一段中的一些句子餵給它,GPT2 可立刻產生另一則似是而非的新聞內容、如同原本的報紙般的編排、以及出現跟原文一樣的人物等。
另外,若讓它吸收《動物農莊》的作者,喬治歐威爾的《1984》小說裏的第一句話「It was a bright cold day in April, and the clocks were striking thirteen (四月間,天氣寒冷晴朗,鐘敲了十三下。)」,它能立刻辨識出這句話中的社會科幻小說敘事風格,而能接續相應的故事 (點此連結看 GPT2 怎樣接續)。《衛報》認為 GPT2 產生的句子,幾乎沒有過去 AI 系統撰文時,前後語意不一致或是文法錯誤的問題。例如曾經分享過的-《哈利波特》的續集(點此看:哈利扯下眼睛丟進森林、妙麗被...AI 寫《哈利波特》續章大獲好評!)
新的文字編輯AI擁有破天荒的寫作能力,影片中英國《衛報》的編輯不斷餵給它不同風格的文章,AI都能依據原文的風格與內容寫下相對應的續集。
「GPT-2」的寫作能力,恐怕被有心人士利用。他們有可能先讓 AI 學習擁有真實存在的人名 (如政壇人物的名字)、地名與事件等的文章,再讓 AI 來移花接木,而捏造出大量的假新聞、假消息。這些假新聞幾可亂真 — 看起來就像是出自 BBC、紐約時報、CNN 等公信力高的媒體一樣,大眾無法辨識其真實性,就會被誤導。據網路新聞指出,有人稱 GPT-2 為「Deepfake 文字版」。
根據維基百科記載:Deepfake 是英文「deep learning 深度學習」和「fake偽造」的混成詞,專指用基於人工智慧的人體圖像合成技術。上過Python課程的學生多少都知道,此技術可將圖像和影音疊加至目標圖像或影片上。
Deepfake 亦可用來製作虛假的名人性愛影片和報復性色情媒體。帶色情成份的Deepfake作品於2017年間在網際網路上流出,特別是在Reddit上。這些 Deepfake 作品現已被 Reddit、Twitter 和Pornhub等網站禁止發布是專指利用 AI 將名人嘴形、臉部與色情或他人影片移花接木,以遂惡作劇或栽贓嫁禍的目的的影片。
因此,研究團隊「OpenAI」決定不釋出完整的「GPT-2」模型,而只公開一小部份模型和範例,以防止「GPT-2」被用作為捏造假新聞的工具。儘管只釋出一小部分,OpenAI 仍擔心 GPT-2 有研究團隊或人員成功破解、衍生出另一套擁有跟完整的 GPT-2 一樣能力的 AI 系統。現今,我們身旁已經有夠多人被網路上流傳的謠言和假新聞誤導過。若「GPT-2」開放的話,恐怕會造成許多社會問題 — 煽動民心、讓人民陷於心慌意亂等等,恐怕會被武器化。
近日馬斯克退出「OpenAI」,不少人猜測原因是跟善於虛構假新聞的「GPT-2」有關。但馬斯克本人倒是對此撇清關係,他在推持上表示希望更專注於解決旗下特斯拉和 SpaceX 面臨的又大又難的工程、製造問題,加上在 OpenAI的發展方向與團隊分歧,於是決定退出 OpenAI。(點此看:馬斯克宣布離開 OpenAI 的真正原因是...研發的AI太會寫假新聞?)
延伸閱讀:
哈佛商業評論公布的這十位人工智慧領航者,讓AI有一個燦爛的開始
常常來不及寫下別人的話嗎?你該感謝人工智慧,現在有解藥了!
透過人工智慧的巧手,這個產業起死回生!
SEO優化不可不知的四大語意標記法(1)Schema
SEO優化不可不知的四大語意標記法(2)Microdata微數據
SEO優化不可不知的四大語意標記法(3)JSON-LD
人人都能是工程師!台灣 IT 培訓中心推「找到工作再付學費」專案,要試試嗎?