0

雷鋒網消息,據外媒HealthcareItNews報道,美國時間周四,FDA召集患者參與咨詢委員會(Patient Engagement Advisory Committee)進行了一場公開會議,討論醫療設備中人工智能和機器學習方面的問題。
據雷鋒網了解,2015年9月,主管醫療器械的FDA設備和放射健康中心成立了首個患者參與咨詢委員會,以確保在醫療設備的審評中反映患者需求。
PEAC主席、美國腎臟患者協會政策和全球事務主席Paul Conway博士說:“使用AI和機器學習技術的設備將通過提高患者治療關鍵過程的效率來改變醫療服務。”
此外,Conway和其他人在小組討論中也指出,人工智能和機器學習系統可能存在算法偏見和缺乏透明度——反過來,這可能會削弱患者對設備的信任。
為了應對新冠疫情,醫療設備的創新速度不斷加快。設備和放射健康中心主任Jeff Shuren博士指出,已經有562款醫療設備獲得了FDA的緊急使用授權。
Shuren說,患者的需求必須作為研發過程的一部分來考慮。
“我們繼續鼓勵醫療系統的所有成員努力理解患者的觀點,并積極主動地將他們納入醫療設備的開發、修改和評估中。患者是我們工作的靈感來源,盡管新冠疫情這一突發的公衛事件給全球帶來了挑戰。但是患者的呼聲不會停止。如果說有什么不同的話,那就是更有理由讓人們聽到它。”
然而,飛利浦全球軟件標準監管主管Pat Baird表示,獲得患者信任還意味著,要正視穩定和準確的數據集的重要性。
Baird表示,“為了幫助患者,我們需要更加熟悉他們,了解他們的醫療條件、需求和愿望,更好地了解那些潛在的因素,這些因素往往在收集的數據中潛藏著一些趨勢。”
Baird解釋說:“在一個子集上訓練的算法可能與另一個子集不相關。”
例如,如果一家醫院需要為佛羅里達州退休社區的老年人提供醫療設備,一種識別緬因州青少年醫療需求的訓練算法就不會有效——換言之,不是每個人都有同樣的需求。
“數據中的這種偏差不是故意的,但是很難識別,”因此,Baird鼓勵對偏見類型進行分類,并向公眾公開,“偏差帶來的后果,就是失去患者的信任。我們需要集思廣益,開發出更好的人工智能產品。”
CDRH的首席醫務官兼婦女健康主任Terri Cornelison上尉指出,人口統計鑒定在醫學上具有重要意義,這是因為,人口統計包含了遺傳和健康的社會決定因素等。
Cornelison說到,“科學告訴我們,這些不僅是明確的鑒別指標,而且實際上與臨床相關。”
她指出,一項不識別患者性別的臨床研究可能會掩蓋不同染色體人群的差異化結果。在許多情況下,如果現有的訓練數據不能代表不同類型的患者,那么AI就會學的越來越“窄”。
“更簡單地說,如果數據不包括你,AI算法可能就不能代表你。AI正在改變我們的衛生系統和日常生活。盡管取得了這些重大成就,但是,大多數人都忽視了性別、年齡等因素對健康和疾病差異的影響。”
委員會還研究了“知情同意”如何在算法訓練中發揮作用。
“如果我同意接受AI設備的治療,我就有權知道數據集里是否有像我這樣的病人……”健康溝通顧問Bennet Dunlap說,“我認為FDA不應該接受或批準一種沒有病人參與的醫療設備。”
“你需要知道你的數據將被用于什么。我是白人,我可以假設年長的白人包含(數據集)中。這是每個人的出發點,但情況往往不是這樣。”
埃默里大學Goizueta阿爾茨海默病研究中心Dr. Monica Parker指出,讓患者數據多樣化,需要社區內可信實體的幫助。“如果人們為了更廣泛的多樣化而開發這些設備,那么這些設備是在哪里進行測試的,這是不是存在一些問題呢?”
她提出了在美國東、西海岸的學術醫療中心或技術中心進行測試的問題,而不是“從醫院收集真實世界的數據,因為這些醫院可能在疾病過程中使用一些不同的設備。”
Faces and Voices Recovery的運營總監Philip Rutherford也補充到,在數據集中區分多樣性是不夠的,負責訓練算法的人也必須不是同質的。“如果希望數據多樣化,我們就必須讓收集數據的人也多樣化。”
因此,患者參與咨詢委員會呼吁,FDA在解決人工智能和機器學習中的算法偏見方面發揮強有力的作用。
Conway在最后總結說,“歸根結底,多樣性驗證和無意識的偏見……如果從一開始就有強有力的領導,所有這些問題都可以得到解決。”雷鋒網
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。