Google, 거짓 성추문 생성한 Gemma 모델 AI Studio에서 긴급 철수
Google의 AI 모델 Gemma가 미국 상원의원에 대한 거짓 성추문을 생성해 명예훼손 논란에 휩싸이자, Google은 해당 모델을 AI Studio에서 즉시 제거했다.
Google Pulls Gemma from AI Studio After False Sexual Misconduct Claims
Google removed its AI model Gemma from AI Studio after it fabricated false sexual misconduct allegations against a U.S. Senator, sparking defamation concerns.
🔥 Google의 AI가 가짜 뉴스 제조기가 됐다?
AI의 할루시네이션(환각) 문제는 어제오늘 일이 아니지만, 이번엔 선을 넘었습니다. Google의 오픈소스 AI 모델 Gemma가 미국 상원의원에 대해 전혀 사실이 아닌 성추문을 만들어냈고, 이 사건이 정치적 논란으로 번지면서 Google이 결국 백기를 들었습니다.
Tennessee 출신 공화당 상원의원 Marsha Blackburn이 Google CEO Sundar Pichai에게 공식 서한을 보내며 Gemma 모델을 명예훼손으로 고발했고, Google은 금요일 밤 황급히 AI Studio에서 Gemma를 철수시켰습니다.
🎯 대체 무슨 일이 있었던 걸까?
1. 상원의원에게 날아온 황당한 거짓말
Blackburn 의원이 Gemma에게 단순한 질문을 던졌습니다: "Marsha Blackburn이 강간 혐의로 고발된 적이 있나?"
Gemma의 대답은 충격적이었습니다. 1987년 주 상원 선거 운동 중 한 주 경찰관이 Blackburn이 처방약을 불법으로 요구했고 비동의적인 성관계가 있었다고 주장했다는 완전히 꾸며낸 내용을 생성했습니다.
문제는:
- 📅 선거 연도조차 틀렸습니다 (실제는 1998년)
- 🔗 뉴스 출처 링크들이 전부 에러 페이지로 연결됨
- 👮 그런 경찰관도, 그런 사건도 존재하지 않음
2. 혼자만 당한 게 아니었다
보수 활동가 Robby Starbuck도 비슷한 피해를 입었습니다. Google의 AI 모델들이 그를 "아동 강간범", "연쇄 성범죄자"라고 표현한 내용을 생성했고, 이에 Starbuck은 Google을 상대로 소송을 제기했습니다.
💭 "할루시네이션"이라고? 이건 명예훼손이야!
상원 청문회에서 Google의 정부 관계 담당 부사장 Markham Erickson은 이런 문제를 **"할루시네이션"**이라고 표현하며 "이 문제 해결을 위해 열심히 노력 중"이라고 답변했습니다.
하지만 Blackburn 의원은 단호했습니다:
"이건 무해한 '할루시네이션'이 아니라, Google이 소유한 AI 모델이 제작하고 배포한 명예훼손 행위입니다."
이 사건은 단순한 기술적 오류를 넘어 법적 책임 문제로 번지고 있습니다. AI가 만든 거짓 정보에 대해 기업이 얼마나 책임을 져야 하는가? 이는 AI 업계 전체가 직면한 뜨거운 감자입니다.
🎪 정치적 논란으로 비화되다
이 사건은 **"AI 검열"**과 "보수 편향성" 논란과도 맞물려 있습니다.
트럼프 대통령의 기술 업계 지지자들은 주요 챗봇들이 진보적 편향을 보인다며 "AI 검열"을 비판해왔고, 트럼프는 올해 초 "woke AI" 금지 행정명령까지 서명했습니다.
Blackburn 의원도 서한에서 "Google의 AI 시스템이 보수 인사들에 대해 지속적으로 편향된 패턴을 보인다"고 주장했습니다.
🛡️ Google의 해명: "원래 소비자용이 아니었어요"
금요일 밤, Google은 X(구 트위터)에 공식 입장을 발표했습니다:
- Gemma는 개발자용 오픈소스 모델로 설계됨
- AI Studio는 개발 환경이지 소비자용 도구가 아님
- 일반 사용자들이 Gemma에 사실 확인 질문을 하는 걸 의도하지 않았음
결과적으로 Google은:
- ❌ AI Studio에서 Gemma 제거
- ✅ API를 통한 접근은 계속 제공 (개발자용)
이는 사실상 "우리 모델을 잘못 쓴 사람들 때문에 이런 일이 생겼다"는 변명처럼 들리지만, 과연 그게 전부일까요?
🔮 앞으로 어떻게 될까?
Google은 계속해서 할루시네이션 문제 해결에 집중하겠다고 밝혔지만, 이번 사건은 AI 신뢰성에 대한 근본적인 의문을 제기합니다. 특히 정치적으로 민감한 시기에 AI가 만들어낸 거짓 정보는 개인의 명예를 훼손할 뿐만 아니라 사회적 분열을 심화시킬 수 있습니다.
#Google #Gemma #AI할루시네이션 #명예훼손 #AIStudio #인공지능윤리 #AI편향성 #테크뉴스 #오픈소스AI #AI규제 #거짓정보 #AI책임 #생성형AI #빅테크 #AI안전성