알림마당

인권센터 소식

[국가인권위원회] AI를 막 믿으면 안되는 이유

  • 이은지
  • 2026-02-24
  • 19

AI 강국을 향한 의지는 세계 최초로 AI 기본법을 시행하는 나라로 이어졌다. ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’이라는 이름은 도무지 외어지지 않을 정도로 무난하지만 일명 ‘AI 기본법’은 산업계의 우려와 시민사회의 우려를 동시에 받고 있다. 다만 시민사회의 우려는 잘 들리지 않는다. 검색창에 ‘AI 기본법’을 입력하면 관련검색어로 ‘수혜주’가 가장 먼저 뜨고, 언론 보도는 온통 기업들 걱정이다. 국민 밉상 기업으로 떠오른 쿠팡에서만 3370만 명의 개인정보가 유출되고, SKT, KT를 비롯해 내 정보가 도처에서 새어나가 팔리는 처지가 되다보니 오히려 무감각해진 것일까? AI 시대의 정보인권 개념은 흐릿하다. 정말 AI는 국가 경쟁력 차원에서 키우기만 하면 될까?

 

AI를 막 믿으면 안되는 이유

 

[AI 버블이 온다]의 저자 아르빈드 나라야난, 사야시 카푸르는 프린스턴대 정보기술정책센터의 교수와 연구원으로 주목받는 컴퓨터과학자다. 이들은 ‘가짜 AI’, ‘사기꾼 AI’에 넘어간 세태를 고발한다. 원제 ‘AI Snake Oil’은 19세기 가짜 만병통치약 ‘뱀기름’에서 따왔다. 기술이 아니라 환상을 사는 시대가 괜찮다고 착각하면 안된다. 이른바 천재라는 사람들과 조 단위의 시장 가치를 자랑하는 회사들이 무슨 일을 벌이고 있는지 알아야 한다. 이미 우리가 무슨 일을 당하고 있는지 알아야 한다는 얘기다.

 

일단 ‘예측형 AI’는 대체로 실제 능력보다 훨씬 부풀려졌다. 그럼에도 사람들의 삶과 경력에 영향을 미치고 있다. 미국에서는 고용주의 4분의 3이 자동화된 도구로 입사 지원자들을 걸러낸다. 저자는 “많은 AI 회사가 30초짜리 영상에 포착된 신체 언어, 말투, 그 외 피상적인 특징들을 근거로 누구의 인성이 더 바른지, 어떤 사람의 태도가 더 좋은지를 판단할 수 있다고 주장한다”며 전혀 증거가 없다고 했다. 실제 스카프나 안경을 착용하는 등 외모에 조금만 변화를 줘도 점수가 달라지는 사례가 보고됐다. 배경에 책꽂이나 그림을 추가하면 점수가 올라갔던 반면 화면이 어두우면 점수가 내려간다. 이력서 파일을 PDF에서 일반 텍스트로 바꾸는 것만으로도 인성 점수가 달라졌다. 이래도 될까? 미국 건강보험사 유나이티드헬스는 비록 AI 결정이 부정확하더라도 그에 동의하도록 직원들을 강제했는데, AI가 내린 결정의 90% 이상이 부정확했던 것으로 드러났다.

 

AI 기반이 되는 알고리즘은 이미 여러가지 사고를 쳤다. 네덜란드는 육아수당을 더 받아낸 복지 사기를 알고리즘을 통해 적발했다. 부모 3만 명을 고소해 많은 이들이 정신적, 경제적 파탄에 빠졌는데 알고보니 이 알고리즘은 국적에 근거해 사기범을 예측했다. 터키나 모로코, 동유럽 출신이면 사기 혐의로 지목될 확률이 높았다. 이 문제로 2019년 네덜란드 당국에 벌금 300만 유로가 부과됐다. 미국 미시간주도 실업 사기를 잡아내는 알고리즘을 사용했다가 2013~2015년 2100만 달러를 잘못 거둬들였다.

 

예측형 AI 실력은 사실 기대할 게 못된다. 선거 결과와 주가 예측이 AI 등장 이후 매번 맞았던가? 스포츠 경기와 베스트셀러, 영화와 드라마 성공이 예측대로 되던가? 그런데도 영화 <마이너리티 리포트> 마냥 AI가 범죄를 예측하고, 모든 걸 예방할 수 있다는 사기극이 곳곳에서 벌어진다. 범죄 예측이 흑인 등 유색인종을 차별하는 문제는 이미 고질병이다.

 

그럼에도 말 한마디, 움직임 하나하나, 행동 하나하나, 심지어 사람들의 두뇌 속 전기 신호까지 추적해서 더 나은 예측이 가능할까? 저자는 지적한다.

AI Snake Oil

 

무슨 목적으로?
그리고 프라이버시는
어디까지 희생하고?

 

생성형 AI 라고 풍경은 다르지 않다. 챗GPT는 판례로 있지도 않은 사건들을 만들어내 변호사들을 돕는다. 변호사가 진짜냐고 묻자, 챗GPT는 문제의 사건들이 가짜라는 사실을 인식할 능력도 없으면서 진짜라고 답한다. 판결문까지 조작했다. 저자는 “AI를 사용한 엉터리 서류를 제출하고 벌칙을 받는 변호사들의 모습은 흔히 보이는 광경으로 자리 잡았다”고 지적했다.

 

한편 이미지 분류 AI는 너무 잘 작동해서 위험하다. 특히 정부에서 사용하면 문제가 된다고 지적하는 저자는 “한국 정부는 1억 2000만 명이 넘는 해외 방문객 사진을 안면 인식 시스템을 개발하는 민간 기업에 넘겼다”고 사례로 들었다.

 

똑똑한 척 하는 AI 탓에 이용자들은 소비자 권리도 보호받지 못한다. 메타나 구글은 AI로 규칙을 위반한 이용자를 제재하는데 오작동이 줄을 잇는다. 아이의 생식기가 부어 있어서 의사 진단을 받기 위해 사진을 찍었던 아버지는 그 사진이 구글 클라우드에 자동 백업되면서 아동 성학대 이유로 계정이 폐쇄됐다. 그는 몇 년간 쌓아온 디지털 기록을 모두 잃었고, 구글은 복구를 거부했다. 흑인을 향한 증오 발언은 덜 차단하고, 백인을 겨냥한 게시물은 과하게 차단하는 페이스북은 어떤가. 차단 과잉과 차단 부족이 동시에 흔하게 일어난다. 증오 발언을 더 많이 노출하는 알고리즘은 유능하고, 문제 게시물을 관리하는 AI는 무능한 탓에 참담한 일도 이어졌다. 페북의 증오발언이 에티오피아 티그라이 내전에 불을 지펴 50만 명이 살해당했다. 미얀마의 로힝야족 1만 명이 살해당하고 70만 명이 쫓겨난 배후에도 페북의 증오와 선동이 문제가 됐다.

 

Manipulation

 

AI가 노동자, 창작자들을 무력하게 만드는 것도 간과할 수 없다. AI가 만드는 신박한 이미지들은 기존 창작자들의 작품을 보상 없이 무단 이용한 결과다. 노동자에게도 선택권이 없다. 기업이 새로운 AI 플랫폼을 도입하든, 노동에 대한 감시를 첨단화하든, 노동자는 무조건 알고리즘과 협력해야 한다. AI를 훈련시키는 과정에서 이미지에 설명 태그를 붙이는 것은 디지털 시대의 인형 눈 붙이기 노동이다. 오픈AI와 계약한 케냐 기업 사마는 노동자들에게 시간당 1.46~3.74 달러를 지불한다. 반면 오픈AI는 엔지니어들에게 매년 100만 달러에 가까운 임금을 지불한다. 저자가 2024년 초 기준 800억 달러로 기록한 오픈AI 시장 가치는 2026년 1월 기준 5000억 달러에 달한다. SF소설가 테드 창은 “과학기술에 대한 두려움은 자본주의에 대한 두려움”이라고 했다. 자본은 AI를 앞세워 노동의 권한과 주체성을 약화시킨다.

 

케이트 크로퍼드의 [AI 지도책]도 AI의 빛과 그림자를 서늘하게 조명한다. 테크 기업들은 노동자의 시간을 쥐어짜는데 더 세련된 기술을 쓴다. 저자는 “더 젊고 더 남성 위주이고 하루 종일 일할 각오가 더 확고한 실리콘밸리의 엘리트들이 최대 효율을 향한 가차 없는 승자 독식 경주를 전제한 생산성 도구를 만들어낸다”고 전했다. 젊은 남성이 대부분인 개발자들 세계는 일중독과 사생활 포기를 찬미하고, 타인의 무급 혹은 저임금 돌봄 노동에 의존하는 것을 표준으로 대한다.

 

Job displacement

 

기술과 혁신은 늘 올바른 것처럼 여겨지지만, 인간이라면 생각 좀 하고 살라고 더 스마트한 기술이 뒷통수를 친다. 생각 없이 마냥 수용하면, AI에게 잡아먹히기 딱 좋다. 우리는 혁신이라는 슬로건 아래 기술은 마치 편향되지 않은양, 공정하고 중립적인 실체가 있는 것처럼 생각하지만 꼭 그렇지 않다는 것을 이제는 안다. 빅테크 기업들은 반독점법을 막기 위해 후원 단체들을 이용해 3600만 달러를 법안 반대 광고에 쏟아부었다. 규제 찬성 광고에는 20만 달러가 쓰였다. 소수의 막강한 기술기업이 AI를 지구적 규모로 움직인다. 대규모 자본이 필요한 탓에 궁극적으로 기득권에 유리하게 설계된 AI를 마냥 믿지 말자. 인권을 막 내주지 말자.

 

 

글_ 정혜승 ㅣ 북살롱 오티움 공동대표


자세한 내용은 아래 링크를 참고해주세요.    


https://www.humanrights.go.kr/webzine/webzineListAndDetail?issueNo=7611794&boardNo=7611803