조작 감지·제공 시스템 만들고
인물·정부 가장한 챗봇·앱 금지
구글 ‘바드’도 검증 정보만 제공
오픈AI. 로이터 연합뉴스
오픈AI는 15일(현지시간) 자사 홈페이지에 “올해 세계 각국에서 치러지는 민주주의 선거의 공정성을 지키기 위해 민주적 절차의 모든 부분에서 협력이 필요하다”며 AI 챗봇 챗GPT와 이미지 생성 AI ‘달리’(Dall-E) 관련 선거 공정성 세이프가드 방안을 발표했다.
구체적으로는 챗GPT를 통해 사람들이 선거 캠페인이나 로비 활동을 위한 애플리케이션(앱)을 만드는 것과 임의의 개발자가 선거에 나선 특정 인물이나 중앙정부 또는 지방정부인 것처럼 가장하는 챗봇을 만드는 것을 금지했다. 또 투표소 위치 등을 잘못 알려 주거나 ‘민주주의에서 투표가 무의미하다’고 주장하는 등 민주주의 시민의 참정권 행사를 방해하는 앱 제작을 금지했다.
오픈AI는 “챗GPT는 언론사 뉴스 등 기존의 정보 소스들과 점점 더 통합되고 있다”면서 “전 세계 언론의 실시간 선거 관련 속보 기사를 볼 수 있도록 연결해 생성형 AI를 이용하는 사람들이 정보의 출처와 취재원을 투명하게 쉽게 찾아볼 수 있도록 하겠다”고 밝혔다.
미 대선과 관련해서는 초당파적 단체인 미 국무장관협회(NASS)와 협력해 유권자들이 챗GPT에 투표소 위치 등 선거 관련 특정 질문을 하면 주 선거관리위원회가 정보를 제공하는 공식 웹사이트(CanIVote.org)로 안내한다. 이를 통해 정확한 선거 관련 정보를 안내하는 프로토콜을 구축해 세계 각국의 선거 관련 정보를 준다. 또 후보 관련 사실과 거짓이 뒤섞인 정보, 딥러닝을 이용한 합성기술인 딥페이크 영상 유포를 막기 위해 생성형 AI가 만든 콘텐츠의 출처와 세부 정보를 암호화해 인코딩하는 디지털 자격 증명 체계도 마련한다.
앞서 구글도 자사 챗봇 ‘바드’가 대답을 내놓는 선거 관련 질문을 후보자, 투표 방법, 장소 등으로 제한하는 조처를 했다. 이 내용도 별도 외부 기관을 통해 검증된 정보만으로 구성했다. 선거 관련 정보는 출처를 반드시 제시하고, AI로 생성된 콘텐츠를 사람들이 바로 식별할 수 있도록 AI가 사용됐다는 것을 눈에 띄게 표시하도록 했다.
2024-01-17 16면
Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지