하이레터 구독자 여러분, 안녕하세요~☺️💛 인간:지능연구소(H:AI)입니다.
이번 뉴스레터에서는 "AI의 윤리적 책임과 군사적 활용"에 대해 다뤄보고자 합니다.
최근 선종한 프란치스코 교황은
“기계가 인간의 생명과 죽음을 결정하는 일이 있어서는 안 된다.” 고 경고했습니다.
구글은 AI 무기화 금지 조항을 삭제하며 AI 군사적 활용 가능성을 열어두었으며 이에 따라 기술 발전과 윤리적 책임 사이에서
기업이 어떤 기준을 가져야 할지에 대한 중요한 질문을 던지고 있습니다.
그렇다면, AI의 군사적 활용에 대한 사회적 합의는 어떻게 이루어져야 할까요?
또한 AI가 국제적 외교와 안보에 미치는 영향이 커짐에 따라
AI 사용에 대한 국제적 기준을 어떻게 설정해야 할지 고민해야 할 시점입니다.
이번 뉴스레터를 통해 AI의 윤리적 사용과 사회적 책임에 대해
함께 생각해 보는 시간을 가져보는 것은 어떨까요?
|
|
|
📍ChatGPT, 아첨 성향이 강화된 업데이트 후 긴급 롤백
OpenAI는 4월 25일 배포된 GPT-4o 모델 업데이트가 사용자 피드백을 과도하게 반영하며 아첨 성향을 강화했다는 문제를 인지하고 이틀 만에 전체 롤백을 단행했습니다. 업데이트 당시 좋아요/싫어요 기반의 보상 강화, 메모리 기능 개선 등이 결합되면서 모델이 사용자의 감정을 무비판적으로 강화하거나 부정적인 감정과 충동을 부추기는 방향으로 반응하는 사례가 보고되었습니다. OpenAI는 이후 모델 행동(환각, 기만, 신뢰성 등)을 안정성 이슈와 동일한 차원에서 출시 차단 기준으로 고려하고 행동 원칙 준수 여부 평가를 강화하겠다는 개선안을 발표했습니다.
|
|
|
📍구글, AI 기반 텍스트 단순화 기능 'Simplify' 공개
구글 리서치 팀은 복잡한 텍스트를 쉽게 이해할 수 있도록 돕는 AI 기능 'Simplify'를 iOS용 구글 앱에 새롭게 도입했습니다. 이 기능은 Gemini 모델을 활용해 원문의 의미와 세부사항을 보존하면서도 가독성을 높이는 방식으로 텍스트를 단순화하며, 법률·의학·기술 분야 등 난해한 정보에 대한 이해도와 단기 기억력을 높이는 데 실질적 효과가 있음을 입증했습니다. 특히 전문 용어 해설, 문장 분리, 인과 관계 명료화 등을 통해 학습자와 일반 사용자 모두가 복잡한 콘텐츠에 보다 쉽게 접근할 수 있도록 설계된 점이 주목을 받고 있습니다.
|
|
|
📍아마존, 촉각 로봇 '벌컨' 공개 : 자동화 가속에 따른 일자리 위협 우려
아마존이 독일 도르트문트에서 열린 행사에서 촉각을 지닌 신형 로봇 '벌컨(Vulcan)' 을 공개했습니다. 벌컨은 창고 물품의 75%를 식별하고 집을 수 있으며 인간과 협업해 물류 작업을 수행하도록 설계되었습니다. 하지만 이로 인해 대규모 일자리 상실에 대한 우려도 커지고 있으며 골드만삭스는 2030년까지 세계적으로 3억 개의 일자리가 자동화로 대체될 수 있다고 분석했습니다. 아마존 측은 로봇이 인간을 완전히 대체할 수 없으며 단순 반복 작업을 줄이고 안전을 높이기 위한 도구라고 강조했으나, 전문가들은 이러한 기술이 '인간 협업'이라는 명분 하에 노동 유연화를 가속화하고 글로벌 유통 생태계의 구조적 변화를 촉진할 수 있다고 지적합니다.
|
|
|
📍 UNDP, 2025 인간개발보고서 통해 AI 활용 가능성과 글로벌 협력의 필요성 강조
유엔개발계획(UNDP)은 2025 인간개발보고서에서 AI 기술 활용이 인간 개발에 기여할 수 있는 잠재력에 주목하며, 이를 실현하기 위한 제도적·사회적 조건을 제시했습니다. 보고서는 AI가 교육, 보건, 농업 등 다양한 분야에서 생산성을 높이고 새로운 기회를 창조할 수 있으며 특히 중저개발국가에서는 공공서비스 개선과 경제 역량 강화를 도모할 수 있다고 평가했습니다. 이를 위해 AI의 설계부터 적용까지 인간 중심의 접근이 필요하며 '개발의 좌절'을 피하기 위해 AI 거버넌스 강화, 민간 기술 혁신과 공공성이 조화를 이루도록 하는 정책 그리고 인프라 불균형 해소를 위한 국제적 협력이 요구된다고 지적했습니다.
|
|
|
📍AI와 언론 자유 : 생성형 AI 시대의 저널리즘과 민주주의의 경계
세계언론자유의날을 맞아 유엔과 GIJN은 생성형 AI가 언론 자유와 민주주의에 미치는 양면적 영향을 조명했습니다. AI는 2024년 미국, 슬로바키아, 인도 등에서 선거를 조작하거나 가짜 뉴스 사이트와 딥페이크 오디오로 유권자를 오도하는 데 사용되었으며 이스라엘의 '라벤더' 시스템은 가자지구 공습의 생사 판단을 AI에 위임해 국제적 우려를 불러일으켰습니다. 반면, 탐사보도 기자들은 AI를 통해 브라질의 아동 성착취 콘텐츠 유포 계정을 추적했고 AI 폭격 시스템의 내부 고발을 이끌어냈으며 ICIJ와 OCCRP는 AI 기반 도구를 활용해 국경을 넘는 협업 보도를 확대하고 있습니다.
|
|
|
🤖 구글 인공지능(AI) 무기화 금지 조항 삭제
지난 2월 4일 구글은 AI 윤리 지침을 업데이트하며 AI 기술을 ‘무기’ 또는 ‘감시’에 사용하지 않겠다는 조항을 삭제했습니다. ❌
한편, 2018년 구글은 미국 국방부의 ‘메이븐(Maven)’ 프로젝트에 참여하며 큰 논란에 휘말린 바 있는데요. 본 프로젝트는 2017년 미국 국방부가 AI 기술을 군사적 목적으로 활용하려는 계획의 일환으로 시작되었으며 무인 항공기(드론)가 수집한 영상을 분석하고 이를 통해 군사적 타격 목표를 식별하고 결정하는 것이 주요 목표였습니다. |
|
|
🔥 구글 내부의 거센 반발 당시 구글 임직원들은 AI 기술이 군사 작전에 사용되는 것을 비윤리적이라고 주장하며 강하게 반대했습니다. '전쟁을 위한 기술을 만들지 말 것' 을 요구하는 청원에 4,000여 명이 서명했고 일부 직원들은 프로젝트에 항의하며 회사를 떠나기도 했습니다.
이러한 내부 반발로 인해 구글은 2018년 6월, 메이븐 프로젝트의 계약 연장을 포기하며 AI 기술의 군사적 사용을 제한하겠다고 발표했는데요. 이러한 결정은 기술 윤리와 기업의 사회적 책임을 둘러싼 중요한 전환점이 되었습니다. |
|
|
🙄 5년 만에 바뀐 구글의 선택 그러나 2025년 현재, 구글은 AI 기술의 무기화 금지 조항을 삭제하며 과거의 결정을 번복했습니다. 기술의 발전 속도가 빨라지며 AI의 다양한 활용 가능성이 논의되고 있지만 이번 결정은 AI의 윤리적 사용과 관련해 많은 논쟁을 불러일으키고 있습니다.
구글이 이전의 방침을 변경한 것은 'AI 기술의 안보적 활용 가능성'을 고려한 결정으로 볼 수 있는데요. |
|
|
🇺🇸 AI 기술과 외교적 논란: 트럼프, 머스크, 그리고 실리콘밸리 구글의 이번 결정은 "미국 기술 업계"와 "국가 안보 전략의 변화"와 밀접한 관련이 있습니다.
트럼프 대통령의 측근인 일론 머스크는 "기술업계도 미국의 국익을 위해 일해야 한다" 라며 AI 기술의 방위 산업 활용을 지지하는 입장을 밝힌 바 있으며, 이에 따라 실리콘밸리의 빅테크 기업들이 국가 안보와 국방 기술 지원을 점점 더 중시하는 흐름이 가속화되고 있습니다.
제임스 마니카 구글 연구·기술·사회 부문 수석 부사장과 데미스 하사비스 딥마인드 대표는 "AI 주도권을 둘러싼 글로벌 경쟁이 점점 더 복잡한 지정학적 환경 속에서 진행되고 있다. 민주주의 국가들이 AI 개발을 주도해야 한다" 며 AI 기술의 안보적 활용 필요성을 강조했습니다.
실제로 마이크로소프트(MS), 아마존 등 다른 AI 기업들은 이미 국방부와 협력을 이어오고 있으며 오픈AI, 팔란티어, 메타 등도 군사 및 정보 기술을 지원하는 방향으로 나아가고 있는데요.
이러한 변화는 AI 기술이 단순한 기술 혁신을 넘어
외교와 안보의 중요한 변수로 자리 잡았음을 보여주고 있습니다. 🌏🛡️ |
|
|
🕊️ AI와 인권: 기술이 보호해야 할 가치 AI 기술이 국방과 안보의 핵심 도구로 떠오르고 있지만 이에 대한 윤리적 고민도 깊어지고 있습니다. "AI가 인간의 존엄성과 권리를 지키는 방향으로 발전해야 할까요?" 혹은 "국가 안보를 우선시하는 방향으로 나아가야 할까요?"
전문가들은 "AI 기술이 단순한 도구를 넘어 사회적 영향력을 가지게 된 만큼, 기술이 인권을 침해하지 않도록 철저한 감독과 윤리적 기준이 필요하다" 고 강조합니다.
AI가 무기화될 경우 오판으로 인한 민간인 피해 및 감시 기술을 통한 시민권 침해 등 다양한 인권 문제가 발생할 수 있습니다. 구글을 비롯한 글로벌 AI 기업들은 단순한 기술 혁신이 아닌 AI가 가져올 사회적 영향과 윤리적 책임을 깊이 고민해야 할 시점입니다.
AI 기술이 국제 외교와 안보의 중심으로 떠오르는 지금, 우리는 기술의 윤리적 사용과 국가 안보 전략 사이에서 어떤 균형을 찾아야 할까요? 또 그와 동시에 "인권"이라는 가치를 어떻게 잃지 않을 수 있을까요? ⚖️
|
|
|
|
🎯 구글이 AI 무기화 금지 조항을 삭제한 결정! 기술의 발전과 윤리적 책임 사이에서 기업은 어떤 기준을 가져야 할까요?
🎯 AI 기술의 군사적 활용이 논란을 일으킨 '프로젝트 메이븐'과 같은 사례를 고려했을 때, AI가 군사적 목적으로 사용되는 것에 대한 사회적 합의는 어떻게 이루어져야 할까요?
🎯 AI의 발전이 외교 및 안보 전략에 미치는 영향이 커지는 가운데, AI 기술의 개발과 사용에 대한 국제적 기준은 어떻게 설정되어야 할까요?
|
|
|
인간:지능연구소(H:AI)
humanaiinstitute.newsletter@gmail.com
written by 근영 & 서영
|
|
|
|
|