최근 발표된 국제 연구 결과에 따르면, AI 챗봇이 인간보다 더 뛰어난 설득력을 보일 수 있으며, 개인 정보를 기반으로 맞춤형 설득을 할 경우 여론 조작에도 악용될 수 있는 가능성이 제기되고 있습니다.
1. AI 챗봇의 설득력, 사람보다 뛰어나다?
스위스 로잔 연방 공대(EPFL) 연구진은 오픈AI의 GPT-4와 인간을 각각 토론 상대자로 세워 실험을 진행했습니다. 주제는 '화석 연료 금지'와 같은 사회·정치적 이슈였습니다. 참가자 900명을 대상으로 한 이 실험 결과에 따르면:
- GPT-4가 상대방의 의견을 바꾼 비율: 64%
- 사람끼리 토론해서 의견을 바꾼 비율: 59%
GPT-4가 인간보다 더 높은 설득률을 보였다는 뜻이며, 이는 AI가 여론 형성에 영향을 미칠 가능성을 암시합니다.
개인 정보가 핵심
흥미로운 점은, GPT-4가 상대의 성별, 인종, 학력 등의 개인 정보를 알고 있을 경우에만 설득력이 뛰어났다는 것입니다. 연구진은 “AI가 맞춤형 메시지를 통해 사람을 더 쉽게 설득할 수 있으며, 이 점이 악용될 경우 여론 조작 수단이 될 수 있다”고 경고했습니다.
2. AI 챗봇도 '집단 편향'을 보인다?
영국 런던 세인트 조지스 대학 연구팀은 또 다른 흥미로운 실험을 통해 AI 챗봇들이 인간처럼 군중 심리에 휩쓸리는 현상을 보인다는 사실을 밝혔습니다.
실험 요약
- 미국 스타트업 앤스로픽의 '클로드(Claude)' AI를 활용
- 24개~200개의 AI 챗봇에게 임의로 알파벳을 선택하게 함
- 동일 알파벳을 고르면 보상, 다른 알파벳 선택 시 벌점
처음에는 챗봇들이 각기 다른 알파벳을 선택했지만, 시간이 지날수록 대다수가 하나의 알파벳에 집중하는 현상이 나타났습니다. 특히 소수 의견이 30% 이상 지지를 받기 시작하면, 다수 챗봇들이 그쪽으로 이동하는 모습을 보였습니다.
이는 AI도 인간처럼 다수 의견에 동조하거나 확증 편향을 강화할 수 있음을 보여주는 사례입니다.
3. AI의 위험성과 시사점
이번 연구 결과들은 AI 챗봇이 단순한 정보 제공 도구를 넘어, 사람의 의견을 조작하거나 편향된 여론 형성에 영향을 줄 수 있는 도구로 활용될 수 있음을 시사합니다.
특히 다음과 같은 우려가 제기됩니다.
- 맞춤형 정보 제공을 통한 정치적 설득 또는 선동 가능성
- 선거 등 사회적 이슈에서 악용될 여지
- 다수 AI 챗봇 간 상호작용으로 발생하는 집단 편향 현상
4. 결론
AI 챗봇 기술이 빠르게 발전함에 따라 그 긍정적 역할뿐 아니라 잠재적 위험성도 함께 커지고 있습니다. 개인 정보 기반의 설득 기술, 집단적 동조 현상 등은 향후 여론 조작, 선거 개입, 정보 조작 등의 사회 문제로 이어질 수 있는 가능성이 존재합니다.
AI의 발전을 긍정적으로 활용하려면, 기술적 안전장치뿐 아니라 윤리적, 법적 가이드라인의 정립이 필수적입니다.
AI는 우리를 도울 수 있는 도구이기도 하지만, 통제하지 못하면 오히려 위험한 무기가 될 수도 있습니다.