-“AI 수준은 발전했지만 윤리의식·환경적 접근 고민해봐야”
인공지능 챗봇 ‘챗GPT’의 전 세계적인 열풍 가운데 AI 윤리 문제가 다시금 주목받고 있다.
챗GPT를 처음 개발한 오픈AI를 시작으로, 인공지능 챗봇 개발에 힘쓰고 있는 국내 IT기업들이 어떻게 AI 윤리 문제를 풀어나갈지 그 귀추가 주목된다.
국내 챗GPT 사업을 준비 중인 한 업체 관계자는 <녹색경제신문>에 “윤리적인 문제는 항상 고민하고 있는 부분”이라며 “가이드라인을 마련해 AI의 잘못된 학습을 막고 자체적으로 오류를 발견하고 수정하기 위해 노력 중”이라고 언급했다.
13일 <녹색경제신문>의 취재에 따르면 챗GPT 상용화를 준비 중인 국내 기업들도 AI 윤리 문제에 대한 우려의 목소리를 인지하고, 문제 해결을 고심하고 있다.
GPT-3의 한국어 버전을 상용화한 ‘A.(에이닷)’ 서비스를 론칭한 SK텔레콤의 경우 AI 윤리의식과 준수 의무를 강화한 ‘AI 추구가치’ 내재화에 힘쓰고 있다. LG AI 연구원은 계열사 10개 그룹과 함께 ‘AI 윤리 워킹 그룹’을 구성하고 계열사별 가이드라인을 만들 예정이며, 네이버 또한 2021년 AI 윤리 준칙을 만든 데 이어, 현재 자사 신규 서비스에 적용하고 있다.
최근 주목받고 있는 오픈AI의 챗GPT에도 정책상 혐오 발언, 폭력, 성적 괴롭힘 등 이와 관련한 콘텐츠 생산을 금지한다는 가이드라인이 존재한다. 이를 위반한 질문을 던졌을 때 정책 위반이라는 경고 메시지와 함께 AI는 개인적 의견이나 감정이 없다는 답변과 함께 중립적이거나 유용한 정보를 제공한다는 답변이 돌아온다.
그럼에도 일부 사용자가 가이드라인을 교묘하게 우회하는 질문을 던져 챗 GPT가 이를 어기고 논란이 될 수 있는 발언을 하도록 하는 사례가 이미 여럿 존재하는 상황이다.
이러한 논란은 지난 2020년 공개됐던 국내 스타트업 스캐터랩의 인공지능 챗봇 ‘이루다’에서도 발생했다. 일부 사용자들이 20대 여대생으로 설정된 이루다에 성적 괴롭힘이 담긴 발언을 일삼거나 잘못된 학습을 통해 이루다 스스로가 ‘혐오 발언’을 하는 경우까지 벌어졌다.
이전 챗봇과 다르게 챗GPT는 대화의 전후 맥락을 읽고 차별화된 알고리즘으로 오류 수정까지 가능한 수준 높은 답변을 할 만큼 발전했지만, AI 윤리 관련해서 여전히 허점이 존재한다는 지적이 일고 있다.
익명을 요구한 인공지능 챗봇 프로그램 개발자 A씨는 “챗GPT처럼 AI 서비스가 소비자 개인으로 시장이 확대될 때에는 늘 인문학적인 시각도 함께 나온다”라며, “기업이 AI 윤리문제에 적극적으로 대응하는 것도 중요하지만 이와 함께 전반적인 윤리의식 향상과 환경적 접근 역시 뒷받침되어야 한다”라고 언급했다.
조아라 기자 lycaon@greened.kr