當?shù)貢r間 27 日,據(jù)美聯(lián)社報道,超過十位軟件工程師、開發(fā)人員和學術(shù)研究人員稱,OpenAI 的語音轉(zhuǎn)寫工具 Whisper 存在一個重大缺陷:有時會憑空生成大段甚至整句虛假內(nèi)容。
這些專家指出,這些生成的文本(IT之家注:業(yè)內(nèi)通常稱為“AI 幻覺”)可能涉及種族言論、暴力措辭,甚至杜撰的醫(yī)療建議。
專家們認為,這一問題尤其令人擔憂,因為 Whisper 已被廣泛應用于全球多個行業(yè),包括用于翻譯和轉(zhuǎn)錄訪談內(nèi)容、生成常見消費科技文本及制作視頻字幕。
更具風險的是,盡管 OpenAI已提醒不應在“高風險領(lǐng)域”使用該工具,但一些醫(yī)療機構(gòu)仍在匆忙采用基于 Whisper 的工具來記錄醫(yī)生與患者的咨詢記錄。
報道稱,研究人員和工程師在工作中經(jīng)常遇到 Whisper 的“幻覺”現(xiàn)象,問題的整體規(guī)模尚不清楚。例如,密歇根大學一位研究員在研究公共會議時發(fā)現(xiàn),在嘗試改進模型前,他所檢查的十份音頻轉(zhuǎn)錄中,八份含有虛構(gòu)內(nèi)容。
一位機器學習工程師透露,在最初分析的超過 100 小時 Whisper 轉(zhuǎn)錄中,他發(fā)現(xiàn)大約一半的內(nèi)容存在“幻覺”現(xiàn)象。一位開發(fā)人員進一步指出,在他用 Whisper 生成的 26000 份轉(zhuǎn)錄中,幾乎每一份都帶有虛構(gòu)內(nèi)容。
即便是音質(zhì)良好的簡短音頻樣本,也未能幸免于這些問題。計算機科學家們的最新研究表明,他們審查的 13000 多段清晰音頻片段中,有 187 段出現(xiàn)了“幻覺”現(xiàn)象。
研究人員認為,這一趨勢意味著,在數(shù)百萬條錄音中將可能出現(xiàn)數(shù)以萬計的錯誤轉(zhuǎn)錄。
OpenAI 的發(fā)言人表示,該公司持續(xù)研究如何減少幻覺,并且感謝研究者的發(fā)現(xiàn),將會在模型更新中采納反饋。