메러디스 부르사드 “AI가 편향된 데이터 학습 않도록 경계해야” > 공지사항

본문 바로가기

사이트 내 전체검색

공지사항

메러디스 부르사드 “AI가 편향된 데이터 학습 않도록 경계해야”

페이지 정보

작성자이주임 작성일 25-06-10 15:54 조회 1회 댓글 0건

본문

“기술 낙관주의자들이 특정 기술에 긍정적인 이유를 자세히 보면 대부분 어떤 제품이나 서비스를 팔기 위한 것임을 알 수 있다.”
메러디스 브루사드 뉴욕대(NYU) 아서 L. 카터 저널리즘 연구소 교수가 최근 ‘인공지능(AI) 열풍’에 대해 내놓은 비판적 평가다.
브루사드 교수는 컴퓨터 과학자에서 저널리스트로 직업을 바꾼 독특한 이력을 갖고 있다. 그는 과학기술 변화가 현실의 불평등을 재현·심화할 수도 있다고 우려했다. 알고리즘이 학습하는 데이터 자체가 기존 사회의 편향성을 지닐 수 있기 때문이다.
‘데이터 편향’을 극복하려면 특단의 노력이 필요하지만, 기술이 인간보다 낫다는 맹신이 이를 가로막는다는 게 브루사드 교수의 문제의식이다. 그가 2018년 출간한 저서 <페미니즘 인공지능(원제 Artificial Unintelligence)>에서 ‘기술 지상주의(Technochauvinism)’라는 개념을 사용한 이유다.
그는 교육을 포함한 모든 사안에 최신 기술을 활용하려는 경향에 맞서 “상황에 따라 적절한 도구가 다를 수 있다”며 한국 AI 교과서 도입 논의에 비판 목소리를 내기도 했다. 경향신문은 지난 4월28일(현지시간) 브루사드 교수와 NYU에서 만났다. 다음은 일문일답.
- 직업을 바꾼 계기가 궁금하다.
“내가 대학에 입학한 1991년은 ‘월드와이드웹(www)’이 처음 등장한 때였다. 20대를 보내는 동안 기술이 만들어낼 유토피아적 전망을 들었다. 모든 게 훨씬 쉬워지고, 귀찮은 일을 더는 할 필요가 없고···. 하지만 대부분은 지금껏 실현되지 않았고, 기술의 미래에 대해 회의적이 됐다. 최근 AI의 미래를 두고도 수많은 약속이 들리지만, 30여년 전 개인용 컴퓨터(PC)와 인터넷 대중화 당시 들었던 것들과 다르지 않다고 본다.”
- 현재 AI 기술의 변화 속도는 과거보다 훨씬 빨라졌다는 평가를 받는다. 현재 변화 속도를 어떻게 보나.
“굉장히 빠르지만 부적절한 수준은 아니다. 최근엔 생성형 AI 덕분에 사람들이 AI를 받아들이고 사용하는 속도가 빨라졌다. 챗GPT를 통해 일상 언어로 대화할 수 있게 되면서 접근성이 높아졌다. 문제는 기술의 변화 속도를 정책과 규제가 따라잡지 못하고 있다는 것이다. 생성형 AI를 이용한 사기, 딥페이크 같은 문제는 정책과 법적 장치를 통해 통제돼야 한다.
- 범용인공지능(AGI)이 올해 안에 등장할 수도 있다는 전망도 일부 제기된다.
“AGI의 정의에 따르 다르겠지만, 돈을 벌기 위해 사람들을 혼란스럽게 만들려는 시도일 수도 있고 컴퓨터 안에 무언가가 살아 있다고 믿는 종교적 신념같은 것일 수 있다고 본다. 비슷한 예가 많다. 일론 머스크는 한때 ‘2020년이면 도로 위에 자율주행차만 다닐 것’이라고 말했지만 지금까지 그런 일은 일어나지 않았다. 제프리 힌튼은 ‘몇 년 안에 방사선과 전문의는 모두 사라질 것’이라 예측했지만 그들은 여전히 일하고 있다. 이처럼 AI 기술과 관련된 예측은 대부분 틀리고, 그 예측을 한 사람들이 경제적 이득을 보는 경우가 많다. 과학의 문제가 아니라 자본주의의 문제다.”
- AI 기술 전문가들은 대체로 기술에 긍정적인 경향이 있다. 이러한 기술 낙관주의에 대해서는 어떻게 생각하나.
“나는 기술을 정말 사랑한다. 기술을 만드는 것도 좋아하고, 사용하는 것도 즐긴다. 저널리스트로서 ‘자동전사(Automatic transcription)’ 기술 덕분에 일이 편해지기도 했다. 때문에 기술을 없애거나 예전으로 되돌아가자는 주장은 하지 않는다. 하지만 우리가 언제, 어떤 방식으로 기술을 사용할지에 대해서는 신중할 필요가 있다고 생각한다. 내가 주장하는 반-기술지상주의는 ‘상황에 맞는 적절한 도구를 사용하자’는 의미도 담고 있다. 때로는 컴퓨터가 적절한 도구일 수 있지만, 때로는 부모 무릎에 앉은 아이의 손에 들린 책처럼 단순한 도구가 더 좋을 수도 있다. 지금 아이들은 학교에서 너무 많은 기술을 접하고 있고, 오히려 ‘사회적 기술(Social skills)’ 습득이 줄어 들었다.”
- 최근 한국에서는 AI 기반 디지털 교과서 도입 논의가 정치권을 중심으로 이뤄졌다.
“정말 잘못된 아이디어다. 이미 교사, 학습 자료 등 훌륭한 교육 시스템이 있다. 책이든, 종이든, 디지털 기기든 아이들이 충분한 학습 자료를 갖고 있다는 게 중요하다. 차라리 모든 학교를 직접 찾아가 무엇이 필요한지 묻고 각각 필요에 맞게 돈을 쓰는 편이 낫다. 정치인들은 눈에 띄는 새로운 것에 매우 신나곤 하지만, 우리는 기술에 관한 문제를 논할 때 더 건강한 선택을 해야 한다.”
- 책에서 AI와 관련해 ‘데이터 편향’을 언급했다. 데이터 자체가 편향된 탓에 인종·성별·장애를 기반으로 한 차별이 일어날 수 있다는 취지다. 구체적으로 설명해준다면.
“인간은 언제나 미래에 대해 알고 싶어 한다. AI가 미래 예측에 도움이 될 수 있다는 아이디어는 매력적으로 다가온다. 하지만 기계에 너무 의존하면 잘못된 결정을 내리게 된다. 예를 들어 경찰은 AI를 사용해 범죄가 어디서, 누구에 의해 일어날지 예측하려 하지만 이는 역으로 부정적인 ‘피드백 루프(부정적 인식을 강화하는 악순환)’를 만들 수 있다. 과거 범죄 발생 지역의 데이터를 컴퓨터에 입력하면 AI는 미래에도 같은 지역에서 범죄가 일어날 것이라고 예측하게 된다. 빈곤 지역, 라틴계 또는 흑인 거주 지역에 경찰 인력을 과하게 배치하게 되면 결과적으로 더 많은 범죄를 ‘발견’하게 되는 식이다.”
- 덜 편향되고 더 대표성 있는 데이터를 사용한다면 편향을 줄일 수도 있지 않을까.
“경우에 따라 다르다. 내가 책에서 든 예시 중 하나는 ‘주택담보대출 승인 알고리즘’이다. 누군가의 대출 가능 여부를 알고리즘으로 판단하는 시스템이다. 이때 알고리즘은 학습된 데이터를 기반으로 만들어진다. 문제는 미국에서 과거 금융이나 주택 차별이 심각했기에, 주택담보대출과 관련해 편향되지 않은 데이터를 찾아보기 어렵다는 것이다. 이와 다른 결과를 만들어내고자 한다면 별도의 노력과 개입이 필요하다. 편향을 줄이기 위한 수학적 방법들이 있다. 하지만 대출 같은 분야에서는 좀처럼 그런 노력들을 하지 않는다.”
- 빅테크 기업이나 개발자를 움직일 방법은 없을까.
“뾰족한 해법은 없는 듯하다. 하나의 방안은 윤리 교육이다. 기술자에게 인문학 수업을 듣게 하는 것이다. 미국의 많은 공대가 최근엔 윤리 과목 수강을 필수로 지정했지만, 수십 개 과목 중 하나에 그칠 때가 많다. 충분하지 않은 숫자다. 기술자들은 역사학·사회학·철학·일반 문학에 대해 더 많이 배워야 한다.”
- 기자는 AI 시대에 어떤 일을 해야 할까.
“그동안 언론은 뉴스 제작에 AI를 쓰려고 실험해 왔다. 이제 환상을 깰 때가 됐다. AI가 콘텐츠를 생산할 때, 사실 아닌 것을 지어내는 ‘환각(Hallucination)’ 현상이 함께 벌어진다. 이는 진실을 찾고 구별하는 저널리즘과 정반대다. 전통적으로 언론의 주된 역할은 권력을 감시·견제하는 것이었다. 이제는 알고리즘을 조사하고 책임을 물어야 한다. 그 점에서 기자들은 AI가 할 수 있는 일과 할 수 없는 일을 알 필요가 있다.”

인스타 한국인 팔로워

댓글목록

등록된 댓글이 없습니다.

성원산업

  • TEL : 031-544-8566
  • 경기도 포천시 신북면 청신로 1764-34
  • 고객문의
성원산업 | 대표자 : 강학현 ㅣ E-mail: koomttara@empal.com | 사업자번호 :127-43-99687 | 주소 : 경기도 포천시 신북면 청신로 1764-34 |
TEL : 031-544-8566 | 성원산업 All rights reserved.