뉴스 > IT·인터넷
엉뚱한 오답 내놓는 ‘환각 현상’ 여전… 못 말리는 AI
구글 오버뷰 오바마 대통령 무슬림설·피자에 접착제 부착 등 답변
“기술적으로 완전히 차단 불가능… 쓰는 사람이 검증하는 단계 거쳐야”
양준규 기자 기자페이지 + 입력 2024-05-27 12:52:19
▲ 순다르 피차이 구글 CEO가 구글 연례 개발자 회의에서 AI 탑재 검색 엔진을 소개하고 있다. 연합뉴스
 
생성형 인공지능(AI)이 잘못된 정보를 내놓는 할루시네이션(환각) 현상이 다시 주목받고 있다. 할루시네이션 현상을 극복하기 위해 다방면의 연구가 진행되고 있으나 이를 완전히 극복하기는 어려울 것으로 보인다.
 
환각 현상이란 언어모델이 실제로는 없거나 사실이 아닌 정보를 사실인 것처럼 말하는 현상을 의미한다. 국내에서는 챗GPT 출시 당시 조선왕조실록에 ‘세종대왕 맥북 던짐 사건’이 기록됐다고 답하는 것이 퍼지며 주목받았다.
 
생성형 AI가 인간의 삶에 막대한 영향을 끼칠 것으로 예상되는 만큼 할루시네이션 현상의 위험성 또한 부각됐다. 생성형 AI가 잘못된 답변을 내놓을 경우 잘못된 정보가 사실인 것처럼 받아들여지고 가짜뉴스가 퍼지는 매개체가 될 수 있다는 것이다.
 
단순히 엉뚱한 대답을 내놓는 것이라면 웃음거리로 넘어갈 수 있으나 AI 이미지 생성 프로그램이 독일 나치군을 아시아인으로 묘사하거나 아인슈타인을 흑인으로 묘사하는 등 사회적으로 민감한 오류가 나오며 논란이 됐다.
 
이에 따라 할루시네이션 현상 해결은 생성형 AI를 개발하는 기업들의 최우선 과제로 꼽혔다. 그러나 이달 출시된 구글의 생성형 AI ‘구글 오버뷰’ 역시 할루시네이션 현상을 피하지 못했다. AI 오버뷰는 버락 오바마 전 미국 대통령이 무슬림이라고 대답하거나 사람이 하루에 돌 하나를 먹어야 한다고 답변하는 등의 사례가 발견됐다.
 
구글 오버뷰가 피자에 치즈가 달라붙지 않을 때 접착제를 넣으라고 한 사례의 경우 구글이 학습했을 것으로 추정되는 인터넷 커뮤니티 유머글이 발굴되기도 했다.
 
구글은 이에 대해 “이런 사례는 흔하지 않은 질문에서 비롯된 것이며 대다수 사람의 경험을 대표하지 않는다”고 밝혔다.
 
그러나 구글이 전 세계적으로 사용되는 검색 엔진인 만큼 단순한 예외로 볼 수 없다는 지적이 나왔다. 구글은 올해 말까지 AI가 탑재된 검색 기능을 미국 외에 다른 나라로 확대해 10억 명 이상이 사용하게 할 계획이다. 구글 AI 검색을 사용하는 10억 명의 사람 중 피자에 접착제를 넣는 사람이 나올 수 있다는 우려가 나온다.
 
할루시네이션 현상의 원인으로는 생성형 AI가 데이터를 수집해 추론할 뿐 진위여부 검증이나 가치 판단은 하지 못하는 것이 꼽힌다. AI가 학습하는 원본 데이터에 문제가 있어도 AI는 그대로 학습하고 답변을 내놓기 때문에 할루시네이션 현상이 발생하는 것이다.
 
여기에 생성형 AI가 가진 정보가 방대하기 때문에 생성형 AI 서비스를 출시하는 기업이 모든 데이터와 답변을 검증할 수 없어 할루시네이션 현상 발생 후에 대처해야 하는 것도 고질적인 문제점으로 꼽힌다.
 
이재성 중앙대학교 인공지능연구소장은 “생성형 AI의 근간이 되는 대규모 언어 모델의 특성상 할루시네이션 현상을 완전히 해결하기는 어렵다”며 “생성형 AI가 내놓는 결과를 그대로 믿지 말고 사용하는 사람이 검증하는 단계를 거쳐 사용해야 한다”고 말했다.
 
이어 “잘못된 정보를 쉽게 받아들일 수 있는 어린아이의 경우 어린이용 생성형 AI를 따로 만들어 정보를 더 철저히 검증하는 방법 또한 생각해 볼 수 있다”고 말했다.
이 기사에 대해 어떻게 생각하시나요?
추천해요
0
좋아요
0
감동이에요
0
화나요
0
슬퍼요
0
오늘자 스카이데일리
주요 섹션 기사
주소 : 서울특별시 중구 새문안로 26 청양빌딩 7층 | 전화 : 02-522-6595~6 | 팩스 : 02-522-6597
인터넷신문 등록번호 : 서울시 아01703, 등록일 : 2011년 7월 18일, 발행·편집인: 조정진, 편집국장: 고동석
copyrightⓒ2011, All rights reserved. Contact : skyedaily@skyedaily.com | 청소년보호책임자 : 박선옥