close

`77H)B3X{DSO2HUPD81(]27.png

該報告強調瞭健康人工智能的前景,以及其幫助醫生治療病人的潛力--特別是在資源不足的地區。但它也強調,技術不是解決健康挑戰的快速方法,特別是在中低收入國傢,政府和監管機構應仔細審查人工智能在醫療領域的使用地點和方式。

世衛組織表示,它希望這六項原則能夠成為政府、開發商和監管機構處理該技術的基礎。專傢們提出的六項原則是:保護自主權;促進人類安全和福祉;確保透明度;促進問責制;確保公平;以及促進具有響應性和可持續性的工具。

有幾十種潛在的方式可以將人工智能應用於醫療保健。有一些正在開發的應用,使用人工智能來篩選醫療圖像,如乳房X光檢查;掃描病人健康記錄以預測他們是否可能生病的工具;幫助人們監測自己的健康的設備;以及幫助跟蹤疾病爆發的系統。在人們無法接觸到專業醫生的地區,工具可以幫助評估癥狀。但是,當它們沒有被仔細開發和實施時,它們可能--在最好的情況下--沒有實現其承諾。在最壞的情況下,它們可能會造成傷害。

在過去的一年中,一些隱患是顯而易見的。在對抗COVID-19大流行病的爭奪中,醫療機構和政府轉向人工智能工具尋求解決方案。然而,這些工具中的許多都具有世衛組織報告所警告的一些特征。例如,新加坡政府承認,一個聯系人追蹤應用程序收集的數據也可用於刑事調查--這是一個 "功能蠕變 "的例子,即健康數據被重新利用,超出瞭原來的目標。大多數旨在根據胸部掃描檢測COVID-19的人工智能程序都是基於糟糕的數據,最終並沒有用。美國的醫院在測試該程序之前使用瞭一種旨在預測哪些COVID-19患者可能需要重癥監護的算法。

"緊急情況並不證明部署未經證實的技術是合理的,"該報告說。

報告還承認,許多人工智能工具是由大型私人技術公司(如Google)或公共和私營部門之間的夥伴關系開發的。這些公司擁有建立這些工具的資源和數據,但可能沒有動力為自己的產品采用擬議的道德框架。他們的重點可能是利潤,而不是公共利益。“雖然這些公司可能會提供創新的方法,但人們擔心他們最終可能會在政府、供應商和病人面前行使過多的權力,”報告寫道。

醫療領域的人工智能技術仍然是新的,許多政府、監管機構和衛生系統仍在摸索如何評估和管理它們。世衛組織的報告說,在方法上深思熟慮和有分寸,將有助於避免潛在的傷害。“技術解決方案的吸引力和技術的承諾可能會導致高估利益,否定人工智能等新技術可能帶來的挑戰和問題。”

以下是世衛組織指南中六項道德原則的細目,以及它們為何重要的原因。

  • 保護自主權:人類應該對所有健康決定進行監督並擁有最終決定權--這些決定不應該完全由機器做出,醫生應該能夠在任何時候推翻它們。未經同意,人工智能不應該被用來指導某人的醫療護理,而且他們的數據應該受到保護。

  • 促進人類安全。開發人員應持續監測任何人工智能工具,以確保它們按規定工作,不會造成傷害。

  • 確保透明度。開發者應該公佈有關人工智能工具設計的信息。對這些系統的一個經常性批評是,它們是 "黑盒子",研究人員和醫生很難知道它們是如何做出決定的。世衛組織希望看到足夠的透明度,以便用戶和監管機構能夠充分審計和理解它們。

  • 培養問責制。當人工智能技術出現問題時--比如工具做出的決定導致病人受到傷害--應該有機制來確定誰應該負責(比如制造商和臨床用戶)。

  • 確保公平。這意味著要確保工具有多種語言版本,並在不同的數據集上進行訓練。在過去的幾年裡,對普通健康算法的仔細審查發現,一些算法中存在種族偏見。

  • 推廣可持續發展的人工智能。開發者應該能夠定期更新他們的工具,如果一個工具看起來沒有效果,機構應該有辦法進行調整。機構或公司也應該隻引進可以修復的工具,即使是在資源不足的衛生系統。

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 Ken641228 的頭像
    Ken641228

    Ken641228的部落格

    Ken641228 發表在 痞客邦 留言(0) 人氣()