잠시만 기다려 주세요. 로딩중입니다.

보건의료에서의 인공지능 적용과 관련된 법적 과제에 대한 개관

Consideration of legal issues related to the application of artificial intelligence in health care

한국의료법학회지 2019년 27권 2호 p.35 ~ 71
이인영 ( Lee In-Young ) - 홍익대학교 법과대학

Abstract

미래에는 인공지능 시스템이 더욱 발전하여 사람의 개입이나 입력 없이 더 넓은 범위의 작업을 수행할 수 있게 될 것이다. 이러한 경향은 보건의료분야에 더욱 실현된다면 환자의 이익이나 보건정책에 이득을 가져올 수 있지만 수반되는 위험의 정도도 더욱 심화될 수 있다. 첨단 인공지능 시스템으로의 혁신이 진일보할수록 인공지능의 알고리즘이 법주체성을 가질 수 있는지에 대한 논쟁은 계속적으로 이어질 것으로 보인다. 보건의료에서 인공지능 시스템이 안전하고 윤리적인 이용을 담보할 수 있을 것인지, 누가 이러한 윤리적 정의를 구현할 수 있도록 결정할 것인지 또는 인간에게 적용하는 어떠한 책무를 인공지능 시스템에 적용할 수 있거나 적용되어야 할 것인지 여부, 문제가 발생하였을 때 새로운 책임법리가 필요한지에 대해서는 계속적 논의가 진행되어야 할 필요가 있다. 결국 이러한 논의는 윤리적 과제이자 우리 사회가 당면한 법적 과제가 되는 것이다. 보건의료에의 인공지능의 적용한계로서 신뢰도와 오류 그리고 이에 따른 안전의 문제를 간과할 수 없다. 인공지능 소프트웨어가 추천한 치료법과 의료진이 판단한 치료법간의 선택으로 인해 결과적으로 환자에게 악결과가 발생할 가능성이 상존하고 있다는 점에서 인공지능 시스템의 자동화된 의사결정에 책임이 있는 주체가 누구인지 여부와 부정확한 진단이나 처방결과로 인한 피해구제에 대한 손해배상 등의 법적 책임의 한계를 설정하는 것이 필요하다. 인공지능 프로그램의 제작자, 인공지능이 탑재된 의료기기의 소유자 또는 이들의 운용자 등이 손해발생에 기여한 정도에 따라 책임을 부담하여야 할 것이다. 또한 데이터의 편향성을 통한 알고리즘 자체에 편향성이 포함될 수 있고 이를 증폭 · 강화하는 경향으로 진전될 수 있다. 알고리즘의 편향성으로 인해 직접·간접의 차별이 야기될 수 있고 그러한 차별로 인한 피해구제를 어떻게 접근할 것인가에 대해서는 아직 논의의 단계이기는 하지만, 알고리즘 자체의 불투명성으로 인해 전통적인 책임법리만으로 책임소재를 규명하거나 책임문제를 해결하기는 상당한 어려움이 있다. 알고리즘 불투명성에 따른 차별적 결과에 대해서는 알고리즘의 책무개념을 검토할 수 있으며, 행위를 논의의 중점에 두고 과연 행위과정에서 의무준수에 대한 숙지, 누가 책무를 부담할 것인지 여부를 판단하여 사전적으로 기술적, 법적, 제도적 관점에서 문제해결을 시도할 필요가 있다. 인공지능 적용으로 인한 위험 대응방안으로 규제의 수단을 상정할 수 있지만, 우선적으로는 전문위원회 또는 협의체 기구의 상설을 통해 기술혁신과 안전과 윤리적 이용 사이의 갈등을 조정하고 가이드라인을 설정하는 등의 인공지능 거버넌스 구축의 방법으로 접근하는 것이 합리적이라고 보인다.

AI has the potential to be used in planning and resource allocation in health and social care services. Using AI to analyse clinical data, research publications, and professional guidelines could also help to inform decisions about treatment. AI has applications in fields that are subject to regulation, such as data protection, research, and healthcare. However, AI is developing in a fast-moving and entrepreneurial manner that might challenge these established frameworks. The use of AI raises ethical and legal issues, including: the potential for AI to make erroneous decisions; the question of who is responsible when AI is used to support decision-making; inherent biases in the data used to train AI systems; ensuring the protection of potentially sensitive data; securing public trust in the development and use of AI technologies. AI applications in healthcare make use of data that many would consider to be sensitive and private. Using data that raise privacy concerns should go beyond compliance with the law to take account of people’s expectations about how their data will be used. Reliability and safety are key issues where AI is used to control equipment, deliver treatment, or make decisions in healthcare. Machine learning technologies can also be particularly opaque because of the way they continuously tweak their own parameters and rules as they learn. This creates problems for validating the outputs of AI systems, and identifying errors or biases in the data. Further challenges include the need to ensure that the way AI in healthcare is developed and used is transparent, accountable, and compatible with public interest, and balanced with the desire to drive innovation.

키워드

인공지능 알고리즘; 의료정보 빅데이터; 알고리즘 불투명성; 인공지능 거버넌스; 데이터 편향성; 왓슨 포 온콜로지; 수술로봇
AI algorithm; medical information big data; algorithm transparency; AI governance; data bias; watson for onology; surgical robot
원문 및 링크아웃 정보
등재저널 정보