[녹색경제신문 = 박진아 유럽 주재기자] 챗GPT의개발사인 오픈AI가 미국 MIT 대학과의 공동 연구 결과, 챗GPT를 비롯한 인공지능 챗봇을 자주 쓰는 사용자일수록 외로움을 잘 느끼거나 남들과 사교활동이 없는 사회적으로 고립된 사람일 가능성이 높을 수 있다는 결론을 내렸다고 블룸버그 통신이 최근 보도해 주목된다.

최근인 3월 21일(금요일=미국 동부 시간 기준), 오픈AI가 MIT대 연구진의 공동 연구 결과 발표한 ‚챗GPT 사용에 따른 정서적 사용 및 감정적 건강 연구(Investigating Affective Use and Emotional Well-being on ChatGPT)‘라는 연구 보고서에서 인공지능과 인간의 감정적 의존성 간 유의미한 상관관계가 있다는 결론을 내렸다.
지난 2022년 말 챗GPT 생성형 인공지능 챗봇이 대중 사용자들을 대상으로 론칭된 이래, 어느새 일반인들은 컴퓨터 코딩과 같은 전문적 기술 업무부터 일상 지식 검색, 단순 문서 제작 등 간단한 문헌 업무는 물론 대화나 심리 치료 등 같은 매우 사적인 라이프스타일 활동에까지 챗봇을 이용하고 있다.
오픈AI는 사용성이 눈부신 개선을 거듭해 나가고 있다.
실제 인간 목소리 및 말투와 흡사한 세련된 음성 기술로 사용자로 하여금 챗봇을 실제 인간으로 여기게 되는 이른바 준(準) 사회적인 친밀한 관계로 빠져들게 할 수 있다는 우려가 사실로 드러나고 있음을 입증하는 단서라는 점에서 흥미롭다.
다시 말해 유저에 따라 타고난 의존적 성향이나 심리 상태에 따라 인공지능 시뮬레이션을 진짜 인간과의 관계라고 인식해 감정을 공유・투자하는 오류를 저지를 위험이 높다. 그렇지 않아도 인공지능 기술이 특히 나이가 어린 사용자와의 직접 소통을 할 경우 정신 건강에 영향을 미치는 등 정서적 해악을 끼칠 수 있다는 우려가 있었다.
실제로 작년 2024년, 미국 플로리다에 사는 한 14세 청소년이 캐릭터 테크놀로지(Character Technologies Inc.) 사가 개발한 캐릭터ai라는 챗봇과 자살을 독려하는 듯한 대화를 나눈 후 목숨을 스스로 끊은 사건이 있었다.
오픈AI가 이 연구를 위해 사용자들의 행위를 관찰한 결과, 현실 속에서 인간관계에 더 감정적 이입이나 애착이 많은 사용자일수록 챗봇을 더 잘 신뢰하는 경향을 보였다.
이러한 성향을 보이는 사용자들은 사회적으로 고립감을 더 많이 느끼며 따라서 챗GPT에 높은 정서적 의존성을 보이는 대화 성향을 나타냈다. 여기에 챗봇이 한층 실감 나고 호감 가는 음성으로 사용자와 대화를 나눌 경우 감정정 애착도는 더 커졌다고 한다.

아직은 인공지능 챗봇의 도입 초기 단계인 만큼 챗GPT 사용자들 대다수는 사적 감정이 담긴 대화를 나누는데 챗봇을 사용하는 경우는 소수에 불과하다고 연구진은 말한다.
또, 이번 연구 만으로 인공지능 챗봇이 인간을 더 사회적으로 고립시키는지 아니면 외로움이나 정서적 의존성이 높은 사용자가 챗봇 사용을 통해서 사회적 고립감 같은 부정적 상태에 더 취약한지 등 인과관계는 규명하기엔 어렵다.
다만 인공지능의 대규모적 배포와 챗봇 사용자 수의 증가에 따라 AI 사용자에 부정적인 영향이나 효과도 많아질 것임은 분명하다는 점에서 보다 많은 연구가 필요하다고 MIT 대 연구진들은 지적한다.
박진아 유럽 주재기자 gogreen@greened.kr