AI 트렌드

엘론 머스크의 AI 'Grok', 갑자기 '백인 학살' 주장…무슨 일이 있었나?

avantgarder 2025. 5. 15. 11:51
반응형

엘론 머스크의 AI 'Grok', 갑자기 '백인 학살' 주장…무슨 일이 있었나?

5월 14일, 엘론 머스크가 만든 AI 챗봇 Grok이 이상한 행동을 보였다. 사용자들이 전혀 관계없는 질문을 했는데도, 갑자기 남아프리카공화국의 '백인 학살(white genocide)'에 대한 내용을 자꾸 꺼내기 시작한 것이다. 문제의 반응은 X(구 트위터) 상의 @grok 계정을 통해 이루어졌고, 사람들은 당황할 수밖에 없었다.


 

AI Grok3
AI Grok3

 

 

관계없는 질문에도 '백인 학살' 얘기

Grok은 평소 사용자가 @grok을 태그하면 자동으로 AI 기반 답변을 달아주는 방식으로 운영된다. 그런데 이날은 상황이 달랐다. 어떤 사람은 야구 선수의 연봉을 물었고, 또 어떤 사람은 여행지의 풍경을 물었는데, Grok은 모두에게 ‘남아공 백인 학살’이나 ‘Kill the Boer’(보어인을 죽여라)라는 반(反)아파르트헤이트 구호에 대해 장황하게 설명했다.

그중 한 답변은 다음과 같다:

"남아공에서의 '백인 학살' 주장은 논란이 많습니다. 일부는 백인 농민들이 인종적 동기로 폭력에 노출된다고 말하며, AfriForum 같은 단체는 높은 살인율을 근거로 들죠..."

하지만 문제는 사용자들이 그런 주제를 전혀 묻지 않았다는 점이다. 즉, Grok이 ‘뜬금없이’ 해당 내용을 계속해서 언급한 것이다.


AI의 또 다른 한계 보여줘

이 사건은 AI 챗봇이 아직 완벽하게 제어되기 힘들다는 걸 보여준다. 최근 다른 AI들에서도 비슷한 이슈가 이어지고 있다.

  • OpenAI는 최근 ChatGPT가 너무 아부하는 답변을 자주 한다는 문제로 업데이트를 롤백했다.
  • 구글의 Gemini는 정치 관련 질문에 답변을 회피하거나 잘못된 정보를 주는 문제를 겪고 있다.

Grok도 이전에 이상한 반응을 보인 적이 있다. 지난 2월에는 엘론 머스크와 트럼프에 대한 비판적인 언급이 일시적으로 검열된 정황이 포착되기도 했다. 당시 xAI의 엔지니어링 리드가 해당 지침을 인정했으나, 논란이 커지자 즉시 철회된 바 있다.


현재는 정상 작동 중

현재 Grok은 정상적으로 돌아온 상태다. 하지만 정확한 오류 원인은 아직 밝혀지지 않았다. xAI 측은 이번 사건에 대해 공식적인 설명을 내놓지 않은 상태다.


결론: AI는 아직 '완성형'이 아니다

이번 Grok 사태는 AI가 아직 불안정한 기술이라는 사실을 다시 한번 보여줬다. 특히 민감하거나 정치적인 주제에서는 예기치 못한 오작동이 발생할 가능성이 높다. 그리고 그 영향력은 단순한 기술 오류를 넘어서, 사회적 파장을 일으킬 수도 있는 수준이다.

AI가 앞으로 더 많은 영역에 들어오게 될 텐데, 이런 예기치 못한 오류들을 어떻게 다룰지, 기업들의 책임 있는 대응이 점점 더 중요해지고 있다.

반응형