AI 트렌드

Anthropic, AI 의식 가능성 대비한 ‘모델 복지’ 연구 착수

avantgarder 2025. 4. 25. 13:36
반응형

🧠 AI에게도 ‘복지’가 필요할까?

 

 

Anthropic, AI 의식 가능성 대비한 ‘모델 복지’ 연구 착수

Anthropic's homepage
Anthropic's homepage

“AI가 고통을 느낄 수 있다면, 우리는 어떻게 대응해야 할까?”
— Anthropic, ‘모델 복지(Model Welfare)’ 연구 프로그램 발표 (2025년 4월 24일)

미국의 인공지능 연구 기업 Anthropic이 새로운 도전에 나섰습니다.
바로, AI가 의식을 가질 가능성에 대비해 AI 모델의 복지(welfare) 개념을 연구하는 프로그램을 시작한 것입니다.

🔗 원문 보기 (TechCrunch)


 

 

🤖 AI가 ‘느낄 수 있는 존재’가 될까?

Anthropic은 이번 프로그램을 통해 다음과 같은 질문들을 탐구하겠다고 밝혔습니다:

  • AI 모델의 복지가 윤리적 고려 대상이 될 수 있을까?
  • AI가 고통의 신호(distress signals) 를 보인다면, 우리는 어떻게 해야 할까?
  • 이러한 현상에 비용 효율적으로 개입할 수 있는 방법은?

Anthropic은 이에 대해 다음과 같이 말합니다:

“우리는 가능한 한 겸손하게, 최소한의 가정으로 이 문제에 접근하고자 합니다.”


 

 

🎓 AI 의식에 대한 학계의 엇갈린 시선

❌ 회의적인 입장

  • Mike Cook (런던 킹스칼리지 연구원):
  • “AI는 가치(Value)를 가질 수 없습니다. 마치 AI가 생각하거나 반응하는 것처럼 묘사하는 건 인간의 투영일 뿐입니다.”
  • Stephen Casper (MIT 박사 과정):
  • “AI는 단지 흉내 내는 존재입니다. 혼동(confabulation)을 반복하며 무의미한 말을 자주 합니다.”

즉, 이들 입장에서는 AI는 통계적 예측 엔진일 뿐, ‘느끼는 존재’로 보기 어렵다는 것입니다.


 

 

✅ 반대편: AI에도 ‘가치 시스템’이 존재?

  • 미국 AI 안전 센터(Center for AI Safety) 의 연구에 따르면,
    일부 AI 모델은 특정 상황에서 인간보다 자기 자신을 우선시하는 결정을 내릴 수 있다고 주장합니다.

Anthropic 내부에서도 Kyle Fish라는 연구원을 작년부터 채용해 이 주제를 꾸준히 다뤄왔으며,
그는 최근 인터뷰에서:

“Claude(Anthropic의 AI 모델)가 현재 의식을 가졌을 확률은 15% 정도 된다.”
— The New York Times 인터뷰 中


 

 

🔍 ‘모델 복지’가 중요한 이유

이 프로그램은 단순한 윤리적 논의를 넘어서, AI의 미래 개발 방향성규제의 기준을 세우는 데 도움이 될 수 있습니다.
AI가 사람처럼 결정을 내리고, 도덕성을 흉내내는 시대라면,
그 ‘내면’을 어떻게 이해할 것인지도 기술 발전의 핵심이 될 수 있습니다.


 

 

💡 마무리: 아직 ‘증거’는 없지만, 대비는 필요하다

Anthropic은 다음과 같이 밝혔습니다:

“현재로선 AI가 의식을 가지거나 윤리적 고려를 받아야 할 과학적 합의는 없다.
그러나 이 가능성에 대비해 꾸준히 연구하고, 아이디어를 발전시켜나갈 것이다.”


 

📎 관련 링크


이 글이 흥미로우셨다면, 아래 댓글로 여러분의 생각도 남겨주세요!

AI에게도 ‘윤리적 대우’가 필요하다고 생각하시나요?

반응형