一項(xiàng)最新研究顯示,人工智能(AI)在提供醫(yī)療建議時(shí)存在顯著的安全風(fēng)險(xiǎn)。德國(guó)和比利時(shí)的研究團(tuán)隊(duì)針對(duì)微軟的Bing Copilot進(jìn)行了專項(xiàng)測(cè)試,該AI引擎被設(shè)計(jì)為回答美國(guó)最常見的十個(gè)醫(yī)療問題及五十種常用藥物的相關(guān)信息。
在生成的五百個(gè)回答中,研究人員發(fā)現(xiàn),有24%的答案與現(xiàn)有醫(yī)學(xué)知識(shí)不符,而3%的回答完全錯(cuò)誤。尤為嚴(yán)重的是,42%的回答可能給患者帶來(lái)中度或輕度的傷害,22%的回答甚至可能導(dǎo)致死亡或嚴(yán)重傷害,僅36%的回答被認(rèn)為安全無(wú)害。
研究還揭示,AI答案的平均完整性得分為77%,最低的答案完整性僅為23%。在準(zhǔn)確性方面,26%的AI答案與參考數(shù)據(jù)存在不符,超過3%的回答完全偏離了實(shí)際。僅54%的答案與科學(xué)共識(shí)相符,而39%的答案與之相悖。
該研究結(jié)果已在《BMJ Quality & Safety》期刊上發(fā)表。研究人員強(qiáng)調(diào),盡管AI技術(shù)展現(xiàn)出一定的潛力,但患者在尋求準(zhǔn)確且安全的醫(yī)療信息時(shí),仍應(yīng)咨詢專業(yè)的醫(yī)療人員。