생성형 AI는 빠른 정보의 생성과 다양한 분야에 적용 가능한 범용성으로 개인과조직의 생산성을 혁신적으로 높일 수 있는 툴로 주목받고 있다.그러나 그 이면에는 가짜 또는 편향된 정보의 생성,저작권 침해,저작물의 훼손 등 다양한 악용의 가능성이 공존하는 바,생성형 AI의 활용에 있어 AI 윤리의식 및 보안에 대한쟁점이 부각되고 있는 시점이다.
휴넷의 비즈니스스쿨 과정인 ‘ChatGPT의 빛과 그림자: 생성형 AI의 윤리적 활용’은AI 전문가 정제영 교수와 함께 ChatGPT의 부상과 맞물려 강조되는 생성형 AI의 이점과 부작용을 짚어보고, 윤리적 활용에 대해 고민해보는 과정이다.
본 과정은 다양한 사례를 바탕으로 생성형 AI 윤리에 대해 설명하여각각의 개념을 쉽게 이해하고 자사 적용점 역시 한층 쉽게 도출할 수 있다.구글, MS, 아마존 등의 글로벌 기업부터 네이버,카카오 등 국내 주요 기업을 아우르며 미국, 중국, 유럽 등 글로벌 국가와 국내의 가이드라인까지 폭넓은 생성형 AI 가이드라인을 포함하고 있다.
특히다양한 글로벌 기업과 국가의 사례를 토대로 규제 흐름과가이드라인을 살피는 과정에서폭넓은 관점을 습득하고,이를 기반으로 우리나라의 생성형 AI의 윤리적 기준을 예측해보고우리조직의 윤리적이고 효과적인생성형 AI 적용점을 찾아갈 수 있는 것이 장점이다.
또한 10분 내외의 8개 차시로 구성되어 비교적 짧은 시간 동안 집중력 있는 학습이 가능하며,매 차시 우리 조직에 적용할 수 있는 포인트를 도출할 수 있다.
휴넷 관계자는 “본 과정을 통해 글로벌 주요 플레이어들이 생성형 AI를 윤리적이고도 효과적으로 활용하기 위해 어떤 요소를 고려하고 있는지 캐치할 수 있을 것”이라며, “이를 통해 우리나라의 윤리적 기준을 내다보고 우리 조직에 윤리적이고 효과적으로 적용하는 방법을 도출해 보길 바란다”고 전했다.