오픈AI, 'GPT-4o' 안전성 검토 보고서 "우려""AI와 관계, 다른 이들과 상호작용 필요성↓"
인공지능(AI) 이미지. 게티이미지뱅크실제 사람과 대화하는 듯한 경험을 제공하는 생성형 인공지능(AI) 서비스에 사용자들이 감정적으로 의존하도록 만들 수 있는 위험이 있다는 경고가 나왔다. 다름 아닌 챗GPT 개발사 오픈AI 보고서에서다. 미 CNN 방송은 9일(현지시간) 오픈AI가 음성 지원이 가능한 새 인공지능(AI) 모델 'GPT-4o'(GPT-포오)와 관련해 안전성 검토를 실시한 뒤 보고서를 통해 이 같이 지적했다고 보도했다.GPT-4o는 오픈AI가 지난 5월 공개한 최신 인공지능 모델로 딱딱한 기계음이 아닌 사람과 거의 유사한 음성과 감정 표현, 반응 속도로 실시간 대화가 가능한 게프로젝트파이낸싱전문가 특징이다. 서비스 첫 공개 당시 인간이 AI 비서와 사랑에 빠지는 내용의 영화 '그녀'(her)가 현실이 됐다는 반응이 나오기도 했다.오픈AI는 보고서에서 "사용자들이 챗GPT와 음성 모드로 대화하면서 공유된 유대감을 표현하는 현상이 관찰됐다"라고 우려했다. AI와 사랑에 빠진 주인공의 모습이 꼭 영화 속 일만은 아닐 수도 있다는 얘기다. 보고서는 "사용프로젝트파이낸싱연봉 자가 AI와 사회적 관계를 형성하면서 다른 사람과의 상호작용에 대한 필요성을 줄일 수 있다"며 "이는 외로운 개인에 잠재적으로 도움을 줄 수 있지만, 다른 사람과의 건강한 관계에도 영향을 미칠 수 있다"고 했다.CNN은 "이미 일부 사용자들이 AI와 낭만적 관계를 형성하고 있다고 관련 전문가들은 우려를 표하고 있다"고 전했다. 오픈AI는 보고서에서 "AI를프로젝트파이낸싱교육 안전하게 구축하는 데 전념하고 있으며 사용자의 잠재적인 '감정적 의존'에 대해 지속해서 연구할 계획"이라고 밝혔다.