오픈AI가 챗GPT 4.0 버전을 능가할 차세대 AI 모델 개발에 착수했다는 소식이 전해졌다.
뉴욕타임스(NYT)는 "오픈AI가 자사의 인공지능(AI) 모델인 챗GPT 4.0 버전을 초월할 새로운 모델을 개발 중"이라고 28일(현지 시각) 전했다.
뉴욕타임스가 전한 소식에 따르면 이 새로운 모델은 챗봇, 검색엔진, 이미지 생성 등 다양한 역할을 맡아 오픈AI의 비즈니스 생태계를 확장할 전망이다.
오픈AI는 공식 블로그를 통해 "일반인공지능(AGI) 기술 구축을 위해 챗GPT 4.0보다 더 뛰어난 성능을 갖춘 새 모델을 훈련 중이다"라고 밝혔다.
오픈AI는 "새로운 AI 모델의 개발 과정은 수개월에서 수년이 걸릴 수 있으며, 훈련을 마치더라도 즉각적인 출시는 불가능할 것으로 예상된다고" 말했다. 이어 "개발이 완료된 후에는 일반 사용자가 사용할 수 있도록 미세조정 과정이 필요하다"고 덧붙였다.
일반적으로 개발사는 훈련을 마친 모델을 테스트하고, 사용자 피드백을 바탕으로 최적화해야 하기 때문이다.
또, AI의 안전성과 윤리적 문제에 대한 사회적 관심이 높아지는 가운데, 오픈AI는 최근 AI 안전성과 윤리적 문제에 대응하기 위해 안전보안위원회를 신설하기로 했다.
이 위원회엔 샘 알트먼 오픈AI CEO를 포함해 여러 이사회 멤버들이 참여한다. 오픈AI는 "올 하반기 새로운 안전 정책을 제정할 예정이다"라고 밝혔다.
오픈AI가 신설할 안전보안위원회는 AI 기술 개발 과정에서 발생할 수 있는 위험을 사전에 방지하고, 보다 안전하고 윤리적인 기술 개발을 도모하는 것에 초점을 두고 있다.
한편 오픈AI는 최근 출시된 멀티모달(Multimodal/텍스트와 이미지, 오디오, 비디오 중 2개 이상을 동시 생성해주는) 챗GPT인 'GPT-4o'와 관련해 배우 스칼렛 요한슨으로부터 음성 유사성 문제가 제기된 바 있다.
요한슨 측은 해당 AI의 음성이 자신의 목소리와 섬뜩할 정도로 유사하다고 주장하며, 오픈AI에 음성 변경을 요구하기도 했다.
이에 오픈AI는 해당 음성이 요한슨을 모방한 것이 아니라 다른 전문 배우의 목소리라며 음성 기능을 일시 중단했다.
이러한 사건은 AI 기술의 발전과 함께 동반되는 윤리적, 안전 관련 문제들에 대한 지속적인 논의를 필요로 한다. AI 기술의 확장이 가져올 잠재적 위험과 편익에 대한 고민이 더욱 깊어지고 있다.