▲김한성 마이데이터코리아 이사 |
최근 인공지능의 부상으로 AI 전문 지식에 대한 수요가 급증하면서 AI 숙련 전문가를 고용하기 위해 높은 연봉을 기꺼이 지불하는 기업이 늘고 있다. 멀지 않아 인공지능이 다양한 분야에 널리 이용되면서 인공지능의 공정성과 투명성에 대한 논란도 커질 것이다.
AI시스템은 학습된 데이터만큼만 성능이 향상된다. 과거 데이터를 기반으로 학습되기 때문에 기존의 편견을 지속시켜 잠재적으로 사회적, 경제적, 정치적, 개인적 차원에서 차별적인 결과를 초래할 위험이 있다. 특히 AI가 사회의 필수적인 부분이 되고 삶의 다양한 측면에 영향을 미치게 된다면 그 영향력이 긍정적이고 공평하며, 인간의 가치에 부합하도록 하는 인공지능의 윤리성 확보가 필수적이다. 윤리적 문제를 소홀히 하면 사회적 혼란, 기술에 대한 신뢰 및 긍정적인 발전의 기회 상실 등의 결과를 초래할 수 있기 때문이다. AI 기술이 발전함에 따라 의도적이든, 의도적이지 않든 해로운 방식으로 사용될 가능성이 있다. 또 윤리적으로 설계되지 않은 AI는 의도치 않게 물리적(로봇공학의 경우) 또는 심리적(딥페이크 또는 잘못된 정보의 경우) 피해를 야기할 수도 있다.
한편으로 AI 시스템의 자율성이 높아짐에 따라 행동에 대한 책임 부여가 복잡해지고 있는다. AI가 결정을 내릴 때 또는 일이 잘못됐을 때 책임 소재를 따지기 어렵고, 방대한 양의 데이터를 필요로 하는 경우가 많기 때문에 사용자 개인정보 보호 및 데이터 보안에 대한 우려도 제기된다. AI 의존도가 높아지면서 사회경제적으로 잠재적 위험도 높아질 수 있다. 특히 AI가 특정 부문에 집중해 해당 일자리를 대체하면서 고용 시장을 혼란에 빠뜨려 사회적 불평등을 심화시키거나 증권거래와 투자에서 여러 AI 시스템이 유사한 데이터와 전략을 사용하면 의도치 않게 시장 추세를 증폭시켜 과대평가와 그에 따른 폭락을 초래하면서 금융 거품이 발생할 수도 있다.
이에 AI의 성장을 모두에게 유익한 방향으로 이끌고, 혁신이 사회적 가치와 규범에 부합하도록 보장할 수 있도록 인간의 가치, 권리, 윤리적 기준을 준수하는 방식으로 개발, 배포, 운영하는 ‘윤리적 가이드라인’ 마련을 위한 사회적 공감과 합의가 필요하다. 이른바 8가지 핵심원칙이다. AI가 편견을 강화하거나 차별하지 않도록 공정하게, 어떻게 의사결정을 내리는지 인간이 이해할 수 있도록 투명하게, AI의 모든 행동에 대한 오류나 피해에 대한 구제를 책임있게, 개인 데이터의 안전하고 합의된 사용을 의무화하고, 일관되고 예측가능하게 작동하도록 안전하게, 인류를 위해 유익하도록, 그리고 AI가 인간의 결정을 대체하는 것이 아니라 보강하는 것으로 인간의 자율성을 보장한다. 마지막으로 AI 윤리는 고정된 것이 아니므로 지속적인 모니터링을 통해 AI가 진화하는 사회 규범에 부합하도록 한다.
전반적으로 윤리적 AI는 단순히 설계에만 국한된 것이 아니라 인간의 지속적인 감독과 다양한 신념 및 가치와의 뿌리 깊은 연관성에 대한 이해가 필요하다. 그러나 역동적인 인공지능의 세계에서 윤리적 AI를 신념과 가치에 대한 선언만으로는 부족하다. 실질적으로 윤리적 AI를 어떻게 담보하고 보장할 수 있느냐가 관건이다.
이를 위해서 윤리적 AI 관행을 장려하는 정책이 필수이다. 여기에는 알고리즘 의사결정의 공정성을 보장하고 데이터 사용에 대한 사전동의를 얻는 등 윤리적인 AI로서 제대로 사용하기 위한 업계 전반의 표준을 마련하는 것이 포함될 수 있다. 그러나 윤리적 무결점을 검증하는 것은 AI 시스템이 실제 세계에 적용되기 전에 설계와 동작을 면밀히 조사하는 엄격한 테스트만이 가능하다. 따라서 모든 산업 분야에 AI 적용에 있어서 안전하고,비용효과가 있다는 점을 적절한 기술로 보장할 수 있는 AI 테스트 관련 기술기업 육성과 연구개발(R&D)에 대한 정부차원의 정책마련이 시급하다.