LG, 5대 핵심가치 담은 ‘AI 윤리원칙’ 발표
2022.08.24■ LG, 24일 ▲인간존중 ▲공정성 ▲안전성 ▲책임성 ▲투명성을 5대 핵심 가치로 한 ‘LG AI 윤리원칙’ 발표하며 ESG 경영 실천
□ ‘기술을 넘어 고객의 삶을 더 가치 있게’ 만드는 윤리적인 AI 개발 실행 전략 수립
■ LG AI연구원, ‘AI 윤리원칙’의 중요성 전파하고 실행하는 ‘AI 윤리 점검 TF’ 구성
□ AI 윤리 논의 위해 LG 10개 계열사가 참여하는 협의체 ‘AI 윤리 워킹 그룹’도 연말 신설
■ LG AI연구원, 신뢰할 수 있는 윤리적인 AI 개발 위해 ‘혐오 표현 감지’와 ‘설명 가능한 AI’ 등 다양한 기술 연구 진행
■ 배경훈 LG AI연구원장 “LG는 AI 윤리원칙 수립을 통해 인간과 AI의 공존에 관한 연구를 지속하며 진정한 고객가치를 창출해 나갈 것”
LG가 ‘AI 윤리원칙’을 발표하며 ESG 경영 실천의 보폭을 넓히고 있다.
‘LG AI 윤리원칙’은 AI를 개발하고 활용하는 LG의 모든 구성원이 지켜야 할 올바른 행동과 가치 판단의 기준이 되는 원칙이다.
LG는 신뢰할 수 있는 AI를 개발하기 위해 필수적인 가치와 『고객을 위한 가치창조』와 『인간존중의 경영』이라는 경영 이념을 고려해 5대 핵심 가치를 선정했다.
LG의 ‘AI 윤리원칙’ 5대 핵심 가치는 AI가 인간의 자율성과 존엄성과 같은 권리를 침해하지 않고, 인류에 긍정적인 가치를 제공할 수 있어야 한다는 ▲인간존중
AI가 성별, 나이, 장애 등 인간의 개인 특성에 기초한 부당한 차별을 하지 않고, 다양성을 존중하며 공정하게 작동할 수 있도록 하는 ▲공정성
AI를 활용한 제품과 서비스를 접하는 고객들이 신뢰할 수 있도록 안전과 관련된 부분들은 글로벌 수준의 검증 시스템을 항시 가동한다는 ▲안전성
AI를 개발하고 활용하는 LG 구성원들이 주인 의식을 가지고 역할과 책임을 명확히 해야 한다는 ▲책임성
AI의 알고리즘과 데이터 활용은 원칙과 기준에 따라 투명하게 관리하며, AI가 내놓은 결과를 고객들이 이해할 수 있도록 끊임없이 소통한다는 ▲투명성이다.
LG는 ‘AI 윤리원칙’이 연구의 자율성을 해치는 규제나 규율의 수단이 아닌 ‘기술을 넘어 고객의 삶을 더 가치 있게’ 만드는 윤리적인 AI 개발에 활용될 수 있도록 구체적인 실행 전략을 수립한다는 계획이다.
■ LG AI연구원, ‘AI 윤리원칙’의 중요성 전파하고 실행하는 ‘AI 윤리 점검 TF’ 구성
LG그룹의 AI 연구 허브인 ‘LG AI연구원’은 ‘AI 윤리원칙’의 중요성을 알리고 실제 업무에 적용하는 방안을 검토하고 실행하는 ‘AI 윤리 점검 TF’를 신설했다.
‘AI 윤리 점검 TF’는 LG의 모든 구성원들이 AI 기술의 사회적 책임에 대해 함께 생각하고 고민할 수 있도록 ‘AI 윤리원칙’ 교육을 진행한다.
‘AI 윤리 점검 TF’는 AI 연구 및 개발 단계에서 발생 가능한 윤리 문제를 사전에 검증하는 역할도 맡는다.
이 밖에도 그룹 내 주요 AI 윤리 이슈들을 논의하는 협의체인 ‘AI 윤리 워킹 그룹’도 연말에 신설할 예정이다.
‘AI 윤리 워킹 그룹’은 LG전자, LG디스플레이, LG이노텍, LG화학, LG에너지솔루션, LG생활건강, LG유플러스, LG헬로비전, LG CNS 등 10개 계열사가 참여한다.
LG AI연구원은 ‘AI 윤리 점검 TF’와 ‘AI 윤리 워킹 그룹’을 통해 축적한 데이터와 사례를 바탕으로 ‘23년까지 LG가 연구하고 있는 AI의 세부 분야별 윤리 가이드라인을 개발해 계열사로 전파한다는 계획이다.
■ LG AI연구원, 신뢰할 수 있는 윤리적인 AI 개발 위해 ‘혐오 표현 감지’와 ‘설명 가능한 AI’ 등 다양한 기술 연구 진행
LG AI연구원은 AI를 활용한 제품과 서비스를 접하는 고객들이 신뢰할 수 있는 윤리적인 AI를 개발하기 위해 다양한 기술 연구를 끊임없이 진행하고 있다.
대표적인 사례로는 고객 상담 챗봇 등 일상에서 접할 수 있는 AI 서비스의 최종 고객들이 혐오 및 차별 표현을 경험하지 않도록 ‘혐오 표현 감지’ 기술을 연구 중이다.
‘혐오 표현 감지’는 단어 뿐 아니라 문장의 맥락까지 분석해 공격적이거나 편향된 정보를 걸러 내는 기술로 사회적 갈등을 야기하는 악성 댓글 문제를 해결하기 위한 아이디어에서 시작됐다.
또 다른 사례로는 ‘설명 가능한 AI(Explainable AI, XAI)’가 있다.
‘설명 가능한 AI’는 AI가 내놓은 결과값이 어떤 부분에 근거해서 도출이 되었는지 오류 발생 원인은 무엇인지 인간이 이해할 수 있도록 설명하는 기술이다.
예를 들면, 생산 공정 자동화를 위한 비전 검사 분야에서 AI가 이미지를 분석한 뒤 단순히 제품의 불량 유무만을 알려 주는 것이 아니라, 어떠한 이유로 불량으로 판단했는지 사람이 이해할 수 있게 명확하게 설명하는 방식이다.
‘설명 가능한 AI’는 신뢰성과 투명성이 생명인 의료, 법률, 금융 등의 전문 분야에서 인간의 의사 결정을 돕는 전문가 AI를 개발하기 위해 필수적인 기술이기도 하다.
LG AI연구원은 신뢰성과 투명성, 책임성을 모두 갖춘 윤리적인 AI를 개발하기 위해 ‘설명 가능한 AI’ 기술을 고도화하고 있으며, ▲LG전자, LG생활건강과는 수요 예측 모델을 ▲LG화학과는 개인 맞춤형 면역 항암 치료제 예측 모델을 개발하는 데 이를 적용하고 있다.
이 밖에도 LG AI연구원은 서울대 AI대학원, 미국 미시간대 등과 공동으로 AI 윤리 관련 기술 연구를 진행하고 있다.
배경훈 LG AI연구원장은 “인간이 AI를 어떻게 바라보고 활용하느냐에 따라 그 가치에 대한 평가는 달라질 것으로 본다”며,
“LG는 AI 윤리원칙 수립을 통해 인간과 AI의 공존에 관한 연구를 지속하며 진정한 고객가치를 창출해 나갈 것”이라고 말했다.