하이레터 구독자 여러분, 안녕하세요~☺️ 인간:지능연구소(H:AI)입니다.
이번 첫 번째 뉴스레터에서는 AI 기술의 발전과
윤리적, 사회적 문제들에 대해 다뤄보고자 합니다.
아밋 레이가 말했듯이
"기계의 연민은 AI의 조용한 혁명"이며
AI는 이제 단순한 문제 해결의 도구를 넘어,
인간의 가치와 윤리를 고려하는 중요한 기술로
자리 잡고 있습니다.
이런 변화 속에서 AI의 내부 구조와 판단 과정을 이해하는 일이 점점 더 중요해지고 있죠. 우리는 지금 AI의 공정성과 해석 가능성을 중심으로 기술이 우리 사회에 어떤 영향을 미칠지
진지하게 고민해야 할 시점에 와 있습니다.
이번 뉴스레터를 통해 AI의 발전과 변화가
어떻게 우리의 삶을 바꿀지 함께 생각해보는 시간을 가지셨으면 좋겠습니다.
|
|
|
📍스탠퍼드대 HAI, AI 모델의 '최후의 테스트' 성적 부진
스탠포드대 인간중심 인공지능연구소 HAI의 ‘AI 인덱스 2025’ 보고서에 따르면, 전 세계 연구자들이 출제한 박사급 난이도의 '인류의 마지막 시험(HLE)'에서 AI 모델들의 정확도가 10%도 채 미치지 못했다고 합니다. 이어진 일상 상식 문제와 직관 기반 퍼즐 테스트에서도 낮은 정답률과 잦은 중도 포기가 관찰되었으며 이를 통해 AI 학습 방식의 한계가 뚜렷하게 드러났습니다. 연구진은 이러한 초고난도 벤치마크들이 오히려 AI 발전을 가속화시켜 5년 내 인공일반지능(AGI) 실현을 앞당길 것이라고 전망하고 있습니다.
|
|
|
📍미국 네바다 교육청, AI 윤리 지침서 발표
미국 네바다주 교육청은 'STELLAR Pathway to AI Teaching and Learning: Ethics, Principles, and Guidance'라는 AI 윤리 지침서를 발표했습니다. 이 지침서는 기술 접근성, 데이터 프라이버시, 편향 문제를 다루며 교사들이 AI를 책임감 있게 사용할 수 있도록 지원하는 전략을 제공합니다. 또한 디지털 격차 해소와 학생 데이터 보호를 강조하며 21세기 인력의 요구에 맞춰 학습 환경을 준비하는 데 중점을 두고 있습니다.
|
|
|
📍구글 딥마인드 직원들, 군사 계약 반대하며 노동조합 결성
영국 런던에 기반을 둔 구글 딥마인드 직원 약 300명이 군사 계약 및 이스라엘 정부와의 연계를 반대하며 노동조합을 결성하려는 움직임을 보이고 있습니다. 이는 구글이 2025년 2월 무기 및 감시 기술 개발을 지양하겠다는 이전의 약속을 철회하고 이스라엘 국방부와 12억 달러 규모의 '프로젝트 님버스' 계약을 체결한 데 대한 반발로 해석됩니다. 직원들은 AI 기술이 군사적 목적으로 사용되는 것에 대한 윤리적 우려를 제기하며 공식적인 노동조합 인정을 요구하고 있습니다.
|
|
|
📍 한국, 중국 AI 앱 '딥시크'의 사용자 데이터 무단 전송에 대한 조치
한국 개인정보보호위원회는 중국 AI 스타트업 '딥시크'가 사용자 동의 없이 개인 정보와 프롬프트 데이터를 중국 및 미국의 기업에 전송한 사실을 확인했습니다. 이에 따라 한국은 2025년 2월 딥시크 앱의 신규 다운로드를 중단했으며 딥시크 측은 2025년 4월 10일부터 프롬프트 데이터 전송을 중단했다고 밝혔습니다. 개인정보보호위원회는 이전에 전송된 데이터의 삭제와 향후 국제 데이터 전송에 대한 법적 근거 마련을 권고했습니다.
|
|
|
📍워싱턴포스트, OpenAI와 협력하여 AI 기반 콘텐츠 제공
워싱턴포스트는 OpenAI와 협력하여 AI 기술을 활용한 콘텐츠 제공 서비스를 시작했다고 발표했습니다. 이번 파트너십을 통해 ChatGPT는 워싱턴포스트의 기사를 요약하고 중요한 내용을 발췌하여 사용자에게 제공하며 출처와 링크를 명확히 표시하여 독자들의 신뢰를 높입니다. 정치, 비즈니스 등 다양한 분야에서 신뢰할 수 있는 정보를 효율적으로 전달하는 데 중점을 두고 있습니다.
|
|
|
🧠 AI 해부학 입문: 속을 들여다봐야 진짜가 보인다 👀
몇 년 전 미국 의료 현장에서 충격적인 사실이 드러났습니다. 미국의 대형 보험사와 병원들이 환자의 치료 우선순위를 평가하기 위해 사용한 AI알고리즘이, 환자의 건강 상태가 아니라 과거 의료비 지출 규모를 기준으로 환자를 분류하고 있었던 것입니다. 🚑💰
그 결과, 오랫동안 의료비 지출이 낮았던 흑인 환자들이 실제 의료적 필요와 관계없이 백인 환자들보다 치료의 우선순위가 낮게 평가되는 편향이 발생했습니다. ⚖️
AI는 객관적으로 측정가능한 ‘데이터’에 따라 작동했지만, 그 데이터는 이미 사회적 불평등을 반영하고 있었습니다. 결국, AI는 차별을 없앤 것이 아니라, 더 세련되고 정교하게 감추고 있었던 것이죠. 🔍
이 사건은 우리에게 중요한 질문을 던집니다. "AI는 과연 공정하고 정확한가?" 🤔
그리고 더 나아가, "우리는 AI가 왜 그런 결정을 내리는지 제대로 이해하고 있는가?"
|
|
|
🔬 AI를 '엑스레이' 찍듯 들여다보기
이 질문에 대해 최근, Anthropic의 CEO이자 AI 연구자인 다리오 아모데이는 강력한 의견을 제시했습니다. 그는 우리가 미래의 AI 시대를 준비하기 위한 도구로, "AI MRI", 즉 AI의 내부를 투명하게 스캔하고 분석할 수 있는 기술을 제안했습니다.
오늘날 AI 시스템들은 수십억 개의 매개변수가 복잡하게 얽혀 스스로 학습하는 거대한 ‘블랙박스’와 같습니다. 겉으로는 훌륭하게 작동하는 것처럼 보이지만, 그 안에서 어떤 판단이 어떻게 이루어지는지는 심지어 개발자조차 완전히 이해하지 못하는 경우가 많습니다.😟
이에 대해 아모데이가 제안한 AI MRI는 모델 내부를 스캔해 거짓말, 기만, 권력 추구 성향, 결함, 인지적 약점 등을 식별할 수 있게 합니다.
이렇게 확보한 정보를 바탕으로, 모델을 훈련·조정하는 과정에서도 MRI처럼 정기적으로 ‘검진’하고 위험을 조기에 포착해 대응할 수 있는 체계를 만들 수 있을 것입니다.
|
|
|
🌍 변덕 부리는 AI, 그 내면은?
최근 MIT 연구진은 대형 언어모델(LLM)이 다양한 문화권의 가치를 얼마나 잘 반영하는지를 실험해 보았습니다. 🤖💬
연구진은 다양한 문화권의 가치관을 대표하는 질문을 설계하고, 이를 LLM에 던지는 실험을 진행했습니다. 그런데 같은 질문이라도 표현이나 맥락을 약간만 바꾸면, AI의 대답은 서로 다른 문화권의 가치관을 오가며 쉽게 바뀌었습니다. 🌀
이는 우리가 생각했던 "모델의 문화적 성향" 조차 모델 고유의 특성이 아니라, 질문 방식에 따라 변덕스럽게 흔들리는 무작위성일 수 있다는 사실을 보여줍니다.
결국, 지금 상태로는 AI가 어떠한 가치관이나 윤리의식을 실제로 내제하고 있는지, 그리고 그것을 일관되게 유지할 수 있는지 여부를 신뢰할 수 없는 상황입니다. ⚠️
AI가 블랙박스처럼 내부를 들여다볼 수 없는 기술로 남게 된다면, 우리는 그 판단이 어디로 향할지 예측할 수도, 통제할 수도 없습니다. |
|
|
🔑 해석가능성이 미래를 결정한다
의료비를 기준으로 한 알고리즘의 차별, 투명하지 않은 AI의 결정 과정, 무작위로 흔들리는 문화적 정렬.
이 모든 문제의 중심에는 하나의 사실이 있습니다.
“우리는 여전히 AI를 해석할 수 없다.” 😱
앞으로 AI 연구와 산업은 속도보다 방향을, 능력보다 책임을 중심에 두어야 합니다. AI를 두려워할 필요는 없습니다. 그러나, 이해 없는 신뢰는 위험합니다.
우리가 해야 할 일은 단순합니다.
"맹목적으로 따르지 않고, 끊임없이 질문하는 것."
그 질문이 쌓여, AI 와 함께 공존하는 사회를 더 나은 방향으로 이끌게 될 것입니다. ⚖️
|
|
|
|
🎯 AI가 점점 더 '사람처럼' 사고하고 행동하는 시대, 우리는 AI 의 결정을 어디까지 이해하고 활용해야 할까요?
🎯 만약 AI가 해석 불가능한 상태로 계속 발전한다면, 우리는 어떤 기준을 가지고 AI를 신뢰하거나 규제해야 할까요?
🎯 AI가 스스로 학습하는 과정에서 '사회적 편향'을 재생산하고 증폭시키게 되었을 때, 그 책임은 누구에게 있을까요?
|
|
|
📚 참고 자료
-
The Urgency of Interpretability (Dario Amodei, 2025.04)
- Amthropic CEO: "We Do Not Understand How Our Own AI Creations Work" https://www.techrepublic.com/article/news-anthropic-ceo-ai-interoperability/
-
Khan, A., Casper, S., & Hadfield-Menell, D. (2025). Randomness, not representation: The unreliability of evaluating cultural alignment in llms. arXiv preprint arXiv:2503.08688.
-
Shaw, J. A., & Donia, J. (2021). The sociotechnical ethics of digital health: a critique and extension of approaches from bioethics. Frontiers in digital health, 3, 725088.
|
|
|
인간:지능연구소(H:AI)
humanaiinstitute.newsletter@gmail.com
written by 근영 & 서영
|
|
|
|
|