
在醫學中使用人工智能(AI)正在產生巨大的興奮,并希望治療進展。
AI通常是指計算機模仿人類智能和學習的能力。例如,通過使用機器學習,科學家正在努力開發算法,幫助他們做出關于癌癥治療的決定。他們希望計算機能夠分析放射性圖像并辨別癌癥腫瘤對化療良好,這將不會。
但是醫學中的AI也提出了重大的法律和道德挑戰。其中一些是對隱私,歧視,心理危害和醫生患者關系的擔憂。在即將到來的文章中,我認為政策制定者應該建立一些關于AI的保障措施,就像遺傳測試變得普遍的那樣。
歧視潛力
AI涉及對辨別模式的非常大量的數據分析,然后用于預測未來出現的可能性。在醫學中,數據集可以來自電子健康記錄和健康保險索賠,而且來自幾個令人驚訝的來源。AI可以借鑒購買記錄,收入數據,犯罪記錄甚至社交媒體,以獲取有關辛勤健康的信息。
研究人員已經使用AI預測眾多的醫療狀況。這些包括心臟病,中風,糖尿病,認知下降,未來阿片類藥濫用甚至自殺。作為一個示例,Facebook采用了一種算法,它基于與“你沒事的短語的帖子的帖子自殺預測,這與“再見”和“請不要這樣做?!?/p>
AI的這種預測能力引發了醫療保健中的重大倫理問題。如果AI產生關于您的健康的預測,我認為信息可以將有一天包含在您的電子健康記錄中。
任何有權訪問您的健康記錄的人都可以看到關于認知下降或阿片類藥物濫用的預測。在醫療過程中,幾十個甚至數百名臨床醫生和管理員看到了患者的病程。此外,患者自己經常授權其他人訪問他們的記錄:例如,當他們申請就業或人壽保險時。
lexisnexis和acxiom等數據經紀人行業巨頭也是挖掘個人數據并從事AI活動。然后,他們可以向任何感興趣的第三方出售醫療預測,包括營銷人員,雇主,貸方,生活保險公司和其他人。由于這些企業不是醫療保健提供者或保險公司,因此HIPAA隱私規則不適用于他們。因此,他們不必要求患者允許獲得其信息并可以自由披露它。
這些披露可能導致歧視。例如,雇主對將健康和富有成效的工人感興趣,缺少和低醫療費用。如果他們認為某些申請人將來會發育疾病,他們可能會拒絕他們。貸方,房東,生活保險公司和其他人可能同樣基于AI預測的殺戮的不利決定。
缺乏保護
殘疾人法案的美國人不會根據未來的醫學問題禁止歧視。它只適用于當前和過去的疾病。為了應對遺傳檢驗,國會頒布了遺傳信息無恥行為。本法禁止雇主和衛生保險公司考慮基于有關人民未來健康狀況的相關假設的遺傳信息和做出決定。沒有法律對環境預測數據相似禁止。
AI Health預測也會導致心理傷害。例如,如果他們得知他們可能會在生活中稍后可能會遭受認知衰退,因此許多人可能會受到創傷。甚至可能習慣性將直接從購買數據的商業實體中獲得健康預測。想象一下,通過電子廣告促使您購買記憶增強產品的電子廣告,您獲得了癡呆島風險的消息。
涉及遺傳測試時,建議患者尋求遺傳咨詢,以便他們可以仔細決定是否被測試,更好地理解測試結果。相比之下,我們沒有AI輔導員為患者提供類似的服務。
另一種擔憂涉及醫生關系。Ai會削弱醫生的作用嗎?計算機是否會成為制作預測,診斷和治療建議的計算機,使醫生只是實施計算機的指示?如果計算機在制作醫療決定方面有更大的發言權,患者將如何感受到他們的醫生?
這些擔憂因AI預測遠非無缺乏而加劇。許多因素可以促成錯誤。如果用于開發算法的數據缺陷 - 例如,如果它們使用包含錯誤的醫療記錄 - 算法的輸出將不正確。因此,當實際上,患者可能遭受歧視或心理傷害。
謹慎呼叫
可以做些什么來保護美國公眾?我在過去的工作中爭論了HIPAA隱私規則的擴展,以便它涵蓋了處理健康信息的人以獲得商業目的。隱私保護不僅適用于醫療保健提供者和保險公司,也適用于商業企業。我還認為,國會應根據未來疾病預測,修改美國人禁止歧視。
為AI預測提供患者的醫生應確保他們徹底了解此類預測的利弊。專家應該為AI患者提供咨詢患者,就像訓練有素的專業人員那樣了解基因檢測。
AI的前景可以過度敬畏的人。然而,為了確保AI真正促進患者福利,醫生,研究人員和政策制定者必須承認其風險并謹慎行事。