近期,麻省理工學(xué)院(MIT)的一項(xiàng)研究揭示了人工智能(AI)在處理否定詞,如“no”和“not”時(shí)存在的顯著短板,這一發(fā)現(xiàn)對(duì)醫(yī)療等關(guān)鍵領(lǐng)域的安全應(yīng)用敲響了警鐘。
盡管AI技術(shù)日新月異,已能在診斷疾病、創(chuàng)作藝術(shù)和自動(dòng)駕駛等多個(gè)領(lǐng)域展現(xiàn)卓越能力,但在面對(duì)否定表達(dá)時(shí),卻顯得力不從心。MIT的研究團(tuán)隊(duì),攜手OpenAI與牛津大學(xué),在博士生Kumail Alhamoud的帶領(lǐng)下,深入分析了當(dāng)前主流AI模型,如ChatGPT、Gemini和Llama,在處理否定語(yǔ)句時(shí)的表現(xiàn)。他們發(fā)現(xiàn),這些模型往往傾向于忽視否定語(yǔ)義,而默認(rèn)進(jìn)行肯定關(guān)聯(lián)。
研究報(bào)告特別指出,醫(yī)療領(lǐng)域是這一缺陷可能帶來(lái)嚴(yán)重后果的典型場(chǎng)景。例如,AI可能會(huì)將“無(wú)骨折”(no fracture)或“未擴(kuò)大”(not enlarged)等否定診斷誤解為肯定,從而引發(fā)誤診或治療不當(dāng)。
問(wèn)題的根源不在于數(shù)據(jù)量的不足,而在于AI的訓(xùn)練機(jī)制。斯坦福大學(xué)的深度學(xué)習(xí)兼職教授Kian Katanforoosh指出,大多數(shù)語(yǔ)言模型依賴模式預(yù)測(cè),而非邏輯推理。這導(dǎo)致AI在面對(duì)如“不好”(not good)這樣的否定表達(dá)時(shí),仍可能因“good”一詞的存在而誤判為正面情緒。專(zhuān)家們強(qiáng)調(diào),如果AI模型不具備邏輯推理能力,這類(lèi)微妙卻致命的錯(cuò)誤將持續(xù)存在。
Lagrange Labs的首席研究工程師Franklin Delehelle也表達(dá)了類(lèi)似的觀點(diǎn)。他指出,AI擅長(zhǎng)模仿訓(xùn)練數(shù)據(jù)中的模式,但缺乏處理新情境或創(chuàng)新的能力。這限制了AI在面對(duì)否定表達(dá)時(shí)的準(zhǔn)確性和靈活性。
為了改進(jìn)AI在處理否定語(yǔ)句方面的表現(xiàn),研究團(tuán)隊(duì)嘗試使用合成否定數(shù)據(jù)(synthetic negation data)進(jìn)行模型訓(xùn)練,并取得了一定的初步成效。然而,要準(zhǔn)確捕捉和處理否定語(yǔ)句中的細(xì)微差異,仍然是一個(gè)巨大的挑戰(zhàn)。
Katanforoosh警告說(shuō),AI對(duì)否定的誤解不僅是一個(gè)技術(shù)問(wèn)題,更可能引發(fā)法律、醫(yī)療和人力資源等領(lǐng)域的重大錯(cuò)誤。他呼吁,解決這一問(wèn)題的關(guān)鍵在于結(jié)合統(tǒng)計(jì)學(xué)習(xí)與結(jié)構(gòu)化思維,提升AI模型的邏輯能力,而不僅僅是簡(jiǎn)單地堆砌更多數(shù)據(jù)。
研究團(tuán)隊(duì)還強(qiáng)調(diào)了跨學(xué)科合作的重要性。通過(guò)聯(lián)合計(jì)算機(jī)科學(xué)、語(yǔ)言學(xué)和醫(yī)學(xué)等領(lǐng)域的專(zhuān)家,可以更全面地理解AI在處理否定語(yǔ)句時(shí)面臨的挑戰(zhàn),并共同尋找有效的解決方案。
隨著AI技術(shù)的不斷發(fā)展和普及,其在醫(yī)療等關(guān)鍵領(lǐng)域的應(yīng)用將越來(lái)越廣泛。因此,解決AI在處理否定語(yǔ)句方面的缺陷,對(duì)于確保AI技術(shù)的安全、有效應(yīng)用具有重要意義。
未來(lái),研究團(tuán)隊(duì)將繼續(xù)探索和改進(jìn)AI模型在處理否定語(yǔ)句方面的表現(xiàn),以期推動(dòng)AI技術(shù)的進(jìn)一步發(fā)展和應(yīng)用。