0
| 本文作者: AI掘金志 | 2019-06-07 09:45 |

雷鋒網按:本文譯自Healthcare ITNews,作者Mike Miliard。
近日,美國醫學信息學會(AMIA)向FDA提交了一份建議清單,希望改進其擬議的人工智能、機器學習和醫療器械獨立軟件(SaMD)監管框架。
為了提高臨床人工智能和醫療器械獨立軟件(SaMD)的有效性、效率和安全性,AMIA希望FDA能夠針對機器學習工具產品,微調其監管政策——特別是那些能夠基于新數據自動更新算法的工具。
AMIA指出,醫療AI行業往往分兩類算法型產品:一種是“已鎖定的靜態算法”,一種是“不斷學習自動更新的動態算法”,這兩種算法背后的產品,差異巨大。
“我們成員的觀察經驗是,當前許多 AI 醫療軟件,均基于實時或接近實時的數據連續更新,算法不斷適應新數據和新問題。”
AMIA表示,這意味著人工智能非常容易“從糟糕或有偏見的數據中訓練出模型,該模型可能無法提供優質的決策和令人信服的解釋”。因此,這可能導致SaMD的用戶不知道該設備是否適用于受眾。”
因此,根據AIMIA的說法,當訓練數據所屬人群與產品受眾不同時,FDA就應該要求審查程序。
AMIA還鼓勵FDA將網絡安全風險放在首位,因為黑客攻擊或其他數據操縱均可能對給算法的輸出產生不利影響。例如,它建議圍繞“針對防止系統適應錯誤信號的特定類型錯誤檢測”來制定規則。
報告還建議FDA在框架中加入一些語言模型,以防止算法偏差對“特定種族、性別、年齡、社會經濟背景、身體和認知能力”的人群造成影響,并闡明SaMD技術的開發人員該如何測試他們的產品,以檢測這種偏差并相應地調整算法。
隨著機器學習在醫療保健領域不斷取得進展,過去FDA批準的AI產品多是使用的是無法持續學習的鎖定算法產品,而自我更新的動態算法產品則是一個完全不同的領域,具有自己獨特的特點和風險。隨著監管方法的不斷完善和技術的快速發展,FDA將需要注意這些問題。
在其報告中,AMIA指出需要“根據數據輸入來源的不同來查看SaMD的性能。例如,來自臨床醫生、患者或家庭成員/護理人員手動輸入的數據輸入對SaMD輸出造成了不同的問題,這些數據輸入來自完全嵌入式和自動化的設備,而這些設備無法改變設置(例如完全閉環和基于傳感數據)。
它指出,“另一個關鍵問題是,基于人工智能的SaMD應該能夠在多大程度上為它所提供或支持的任何決策,提供解釋性推理。在人工智能的經典范式中,已經對現有的專業知識進行了編碼,有可能將推理鏈返回到原則或數據。然而,機器學習算法可能在“黑盒”模式下運行,輸入修改了隱式電路,沒有明確的可跟蹤性。因此,重要的是要考慮在何種情況下,一個基于人工智能的SaMD應該對它提供的任何決定作出解釋。”
AMIA總裁兼首席執行官Douglas B. Fridsma博士在一份聲明中說:“正確管理人工智能和基于機器學習的SaMD,需要FDA和利益相關者之間持續探討。”雷鋒網雷鋒網
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。