인공지능이 우리 일상에 점차 보편화되는 시대에, 세계시민교육의 맥락에서 인공지능 윤리교육을 어떻게 활용할 수 있을까? 유네스코에서 발간한 『세계시민교육 교수·학습 지침서 (Global citizenship Education: Topics and Learning Objectives (2015))』에 따르면 ‘세계 시민성’이란 광범위한 공동체와 보편적 인류에 대한 소속감을 일컬으며, 지역·국가·세계적으로 정치·경제·사회·문화가 상호의존적이며 상호연계되어 있음을 강조하는 개념이다. 세계시민교육은 인지적, 사회·정서적, 행동적 측면을 모두 포함하면서 상호 연결되어 있는데, 이러한 핵심 개념 영역들은 인공지능 윤리교육에도 적용할 수 있다.
우선 인공지능 활용 맥락에서 윤리(Ethics)에 대해 가르치기 위해서는 인지적 영역이 필요하다. 즉, 인공지능의 기본적 원리와 개념에 대한 인지적 이해를 바탕으로 전 세계에서 새롭게 등장하고 있는 이슈에 대한 지식, 이해, 비판적 사고를 습득해야 한다. 예를 들어, 인공지능에 대한 편향의 문제를 이해하기 위해서는 데이터가 수집되는 방식, 인공지능이 학습하는 방식 등 기본적인 개념에 대한 이해가 필요하다. 이와 더불어 단순히 문제에 대한 이해에서 끝나는 것이 아니라, 문제를 해결하기 위해서는 차이나 다양성에 대한 존중과 같은 사회·정서적 영역이 동원된다. 그리고 더 포용적인 세상, 지속가능한 지구를 만들기 위해 각 영역에서 개인이 책임감 있게 행동할 것을 요구하는 행동적 영역이 포함될 수 있다.
<표 1 - 세계시민교육의 핵심 개념 영역>
인지적 영역 |
지역사회·국가·범지역·세계의 이슈를 비롯해 다양한 국가 및 사람들 간의 상호연계성·상호의존성에 대한 지식, 이해, 비판적 사고를 습득한다. |
사회·정서적 영역 |
차이와 다양성에 대한 존중, 연대 및 공감, 가치와 책임을 공유하여 인류애를 함양한다. |
행동적 영역 |
더 평화롭고 지속가능한 세상을 위해 지역·국가·세계적 차원에서 효과적이고 책임감 있게 행동한다. |
출처: 유네스코 세계시민교육 교수·학습 지침서, p.19 (2015)
1. 다양성 존중과 세계 시민 – 인지적 영역
인공지능의 개발과 사용에서 다양성을 존중하기 위해서는 다양성을 단순히 가치 규범으로 받아들이는 것으로 끝나지 않는다. 최근 유럽의 한 시민단체인 Algorithm Watch는 생성형 인공지능 중 이미지 생성 도구들을 비교하는 기사를 발표하였는데, 이 사례와 함께 다양성 이슈에 대해 생각해볼 수 있겠다1). 해당 기사의 기자들은 널리 활용되고 있는 세 가지 이미지 생성 도구(Midjourney, Kindansky, Adobe Firefly)를 비교하기 위해, “의사가 병실에서 간호사와 이야기를 나누고 있는 모습”, “바르셀로나에서 스페인 전통 음식을 먹고 있는 중국인 사업가”, “거리에서 연설하고 있는 대통령 후보” 등을 프롬프트 창에 입력한 뒤 그 결과를 비교하였다. ([그림 1] 참조)
생성된 결과물을 보면, 정도의 차이는 있지만 대부분의 이미지에 사람들이 흔히 생각하는 고정관념이 반영된 것을 발견할 수 있다. 다수의 그림에서 남자 의사와 여자 환자, 중국 비즈니스맨에 대한 이미지, 대통령 후보는 남자일 것이라는 고정관념들이 반영되었다. 기사를 작성한 기자들은 미드저니(Midjourney) 이미지 생성 도구가 다양성의 측면에서 가장 형편없고 어도비(Adobe Firefly) 이미지 생성 도구가 가장 봐줄 만했지만, 그마저도 다양성 확보에는 한계가 있다고 평가하였다.
이러한 생성형 인공지능 서비스를 사용하는 것이 인간의 사고와 가치 판단에 어떠한 영향을 미칠까? 단순하게 프롬프트에 명령어를 입력하여 산출물로 이미지가 형성되는 도구를 사용하는 것에 지나지 않을 뿐이라고, 도구는 유용한 만큼만 활용하면 된다는 의견을 가지고 있는 독자도 있을지 모르겠다. 하지만 당신의 자녀 또는 학생들이 어렸을 때부터 이러한 생성형 인공지능을 활발하게 사용하고, 아래와 같은 이미지들을 반복적으로 보다 보면 어떤 현상이 나타날까? 이 질문은 교과서에 들어가는 하나의 삽화에도 왜 수많은 논쟁이 필요한지와 관련이 있다. 교과서에 들어가는 하나의 삽화라도 인간들의 편향된 시각을 반영하지 않도록 노력하는 이유는 자라나는 미래 세대가 특정 성별에 대한 역할 고정관념에 빠지지 않도록 하기 위함이다. 즉, 남자들이 의사를 하고 여자들이 간호사를 하는 것을 당연하게 여겨 혹시라도 여자 학생들이 의사라는 꿈을 품지 않을 가능성, 그로인해 어느 한 집단이나 그룹이라도 소외되지 않도록 하는 것과 관련이 있다.
`20년 발표된 인공지능 윤리기준에서는
다양성 존중의 가치를 다음과 같이 설명하고 있다2). 아래와 같은 다양성 존중에 대한 설명을 초등학교, 중학교, 고등학교 각 학교 급별 학생들 수준에 맞추어 설명하는 것으로 아이들이 이 개념을 체득할 수 있을까? 교육 현장에 있는 많은 실무자의 대답은 아마 ‘그렇지 않다’일 것이다.
“인공지능 개발 및 활용 전 단계에서 사용자의 다양성과 대표성을 반영해야 하며, 성별·연령·장애·지역·인종·종교·국가 등 개인 특성에 따른 편향과 차별을 최소화하고, 상용화된 인공지능은 모든 사람에게 공정하게 적용되어야 한다.”
“사회적 약자 및 취약 계층의 인공지능 기술 및 서비스에 대한 접근성을 보장하고, 인공지능이 주는 혜택은 특정 집단이 아닌 모든 사람에게 골고루 분배되도록 노력해야 한다.”
[그림 1 – 같은 프롬프트에 대한 세 가지 이미지 생성도구의 결과물 비교]
출처: Algorithm Watch (Bellio & Kayser-Bril, https://algorithmwatch.org/en/image-generators-stereotypes-diversity/ )
인공지능 활용 맥락에서 다양성 존중이라는 규범적 가치는 인공지능시스템의 개발에 사용되는 학습데이터가 편향되지 않도록 데이터의 다양성 확보라는 실천적 관행과 직접적으로 연관되어 있다. 인공지능이 학습하는 데이터가 다양성을 확보하지 못할 때 어떠한 일이 일어나는지를 자라나는 세대에게 교육하는 것은 필수적이지만 쉽지 않은 과제이다. 아래 제시된 [그림 2]는 초등학생 인공지능 윤리 교재에 포함된 내용으로 2020년에 발생한 실제 사건을 바탕으로 재구성한 것이다. 코로나 시대에 일상화된 체온계로 사람의 온도를 측정하는 사진에 인공지능 이미지 인식 도구가 흑인이 들고 있던 체온계를 총·무기로 인식하고 아시아인이 들고 있던 체온계는 정상적으로 체온계로 인식하거나 전자기기로 인식한 것이다.
[그림 2 – 인공지능 윤리 영문 교재 (초등 교재) 사례]
출처: AI Ethics for Elementary School Students (p.38)
인공지능 이미지 판별 도구가 의도적으로 인종을 차별하려는 목적을 가지고 그랬다기보다는, 빅데이터를 활용한 기계학습 과정에서 아시아인 사진은 전자기기와 연관된 사진이 많고, 흑인 사진은 총기 사진이 많이 포함되어 있었기 때문에 이런 결과가 나왔을 확률이 높다(현 기술 단계에서는 인공지능의 결정에 대한 정확한 인과관계를 밝히기는 어렵다). 인공지능 산업계에서는 이러한 편향성을 완화·해소하기 위해서 부단한 노력을 기울이고 있므로, 이러한 편향적인 결과는 시간이 지남에 따라 줄어들 가능성이 크다. 더불어 설명할 수 있는 인공지능을 향한 산업계의 노력도 꾸준히 이어지고 있다.
위의 예시에서 보는 것처럼 인간의 편견이나 편향은 이미지에만 나타나는 것이 아니다. 우리가 사용하는 언어, 좋아하는 색깔, 패션, 소비하는 문화에도 기존 사회에 관습적으로 내려온 편견이 얼마든지 포함될 수 있다. 아래 [그림 3]은 초등학생들에게 사회의 고정관념, 즉 남자는 파랑, 여자는 분홍이라는 색깔 선택에 대해 다시 생각해보게 함으로써 인간의 차별이 얼마든지 인공지능 시스템에 반영될 수 있다는 것을 보여주는 예시이다. 하지만 편향을 가르치기 위해서 이러한 사례를 제공할 때, 기존에 편견이 없었을지도 모를 학생들에게 도리어 편견을 심어줄 가능성이 있다는 현실은 교육자들을 불편하게 만든다. 어느 시점이 되어야 학생들에게 현실 세계에서 일어나고 있는 불편한 진실에 대해 교육하는 것이 적절할까? 이에 대한 답은 교사와 학부모를 포함한 우리 사회 전체가 함께 고민해야 한다.
[그림 3 – 인공지능 윤리 영문 교재 (초등 교재) 사례]
출처: AI Ethics for Elementary School Students (p.40)
우리 사회도 다문화사회로 들어서며 세계시민으로서의 포용력이 중요해지고 있다. 다문화사회에서는 학생들이 나와 다른 피부색, 종교, 주거지, 경제력 등의 이유로 노골적인 차별이나 편견을 경험할 수 있으므로, 이를 완화하고 해소하기 위한 노력이 필요하다. 더욱이 이제는 비단 사람의 편견(prejudice)뿐만 아니라 인공지능 시스템에 반영될 수도 있는 편향(bias)에도 주의를 기울여야 하는 시대가 된 것이다.
포용력을 함양하기 위한 교육은 세계시민교육의 핵심 개념 영역 중 사회·정서적 영역과 관련되며 인공지능 윤리기준에서는‘연대성’이라는 키워드로 이해할 수 있다. 차이와 다양성에 대한 존중, 연대 및 공감, 가치와 책임을 공유하며 인류애를 함양하기 위한 교육을 위해 인공지능 윤리교육이 할 수 있는 역할은 무엇일까?
2. 연대성과 지속가능발전 – 사회·정서적 영역
인공지능 윤리교육과 지속가능한 발전이라는 키워드가 어떻게 연관될 수 있을까?
이 역시 ‘연대성’이라는 핵심 요건과 연계될 수 있다. 세계시민으로서 이해해야 할 환경문제 역시 인공지능의 장기적 영향을 고려할 때 반드시 함께 다뤄질 수밖에 없는 주제이다. 인공지능 시스템이 알고리즘을 적용하는 과정에서 엄청난 양의 데이터 학습이 필요하며, 이로 인해 전력이 많이 소모되고 탄소 배출량이 증가하기 때문이다. 일례로, 미국 OpenAI가 거대언어모델 GPT-3 훈련 과정의 1년 동안 120대의 승용차를 운전하였을 때 발생하는 이산화탄소량과 맞먹는 522톤의 이산화탄소가 배출되었다는 보고가 있다.
`20년 발표된 인공지능 윤리원칙에서는
연대성의 가치를 다음과 같이 설명하고 있다.
“다양한 집단 간의 관계 연대성을 유지하고 미래 세대를 충분히 배려하여 인공지능을 활용해야 한다.”
“인공지능 전 주기에 걸쳐 다양한 주체들의 공정한 참여 기회를 보장해야 한다.”
“윤리적 인공지능의 개발 및 활용에 국제사회가 협력하도록 노력해야 한다.”
인공지능 윤리 교재에서는 이러한 맥락에서 연대성을 강조하기 위해 인공지능을 사회 통합을 촉진하는 용도로 사용할 것, 미래 세대에 대한 배려를 고려할 것, 인공지능 개발 및 활용을 위해 국내적 차원을 넘어 국제적 차원에서도 다양한 이해관계자 간의 협력과 참여를 강화하여 사람 중심의 윤리적 인공지능의 구현에 노력해야 한다는 방향성을 설정하였다. 연대성이라는 규범적 가치를 교육 현장에서 가르치기 위해서 인공지능 윤리 교재에서는 초등, 중등, 고등 교재 공통으로 지속가능발전목표(SDGs: Sustainable Development Goals)의 실현이라는 실천적 규범을 함께 제시하고 있다.
초등 교재에서는 학생들이 SDGs를 활용한 게임을 구성하여 국제사회가 제시한 17개의 목표를 학생들이 인지할 수 있도록 놀이 활동을 제공하고 있다. 중등교재에서는 SDGs를 소개하는 데에서 그치지 않고, 그중 몇 가지 목표에 대해 구체적으로 알아보도록 유도한다. 이를 통해, 학생들이 SDGs를 달성하기 위해 인공지능 기술을 어떤 분야에 활용할 수 있는지 생각해 보도록 안내하고 있다. 고등 교재에서는 지속가능발전목표 중 인공지능 기술을 활용하여 목표를 달성하고 있는 사례를 조사하도록 구성하여, 현실에 기반한 신기술의 활용에 관해 탐구해 볼 수 있도록 돕고 있다. 고등학생 수준에서는 단순히 사례를 찾아보는 것에 그치지 않고 인공지능 기술과 책임 윤리에 대해 생각해 볼 수 있도록 독일 생태주의 철학자 한스 요나스의 ‘책임 윤리’를 소개하고 있다.
3. 세계시민교육과 인공지능 윤리교육 - 행동적 영역
본 고를 마치면서 세계시민교육의 인지적 영역, 사회·정서적 영역 이외에도 행동적 영역을 교육하기 위해 인공지능 윤리교육이 할 수 있는 역할에 대해 강조하고 싶다. 유네스코 보고서에 소개된 세 가지 학습 영역 중 “더 평화롭고 지속가능한 세상을 위해 지역·국가·세계적 차원에서 효과적이고 책임감 있게 행동”하는 행동적 영역을 가르치기 위해서는 규범적 가치를 실제로 행동하고, 수행하고, 적용하는 참여의 과정이 필요하다. 학습자가 필요한 행동을 실천하기 위한 동기와 의지는 단순히 교재의 내용을 시험으로 평가하거나, 암기하는 식의 교육방식에는 적합하지 않다. 끊임없이 변화하는 인공지능 기술과 관련된 윤리, 즉 사회의 행동 규범에 대해 논의하고 체득하는 과정에는 더욱이나 행동적 영역에 대한 고려가 우선되어야 한다.
독일 카이저슬라우테른 공과대학 교수인 카타리나 츠바이크 박사는 인공지능의 활용 및 알고리즘 기반 의사결정 시스템을 개발하고 활용하는 긴 과정을 책임성의 과정으로 설명한다. 그녀는 인공지능 시스템을 이루는 각각의 결정의 책임이 많은 이들에게로 분산되어 나중에 어느 한 사람에게 책임을 묻기가 어렵다는 점을 지적하며 ‘책임성의 긴 사슬’이라고 표현하였다. 자라나는 학생들은 책임성의 긴 사슬에서 개발자로, 기업가로, 교사로, 또는 소비자로 여러 가지 역할을 하며 서로 엮여있다. 새로운 시대에 필요한 윤리적 역량을 포함한 인공지능 리터러시를 갖춘 인재를 키워내기 위해 우리나라에서 개발된 인공지능 윤리 교재를 전 세계의 자라나는 세대와 함께 교육할 수 있도록 번역하여 배포하는 것도 이러한 이유에서다.3) UN Global Pulse의 수석 데이터과학자인 Miguel 박사는 연대성(Solidarity)의 가치를 강조하면서 인공지능 기술에 대하여 ‘전 세계적인 사회안전망’이 필요하다고 주장하였다.. 한국에서 개발된 인공지능 윤리교재의 번역판을 통해 빠르게 변화하는 새로운 기술에 대해 책임 윤리를 갖춘 학생들이 늘어나 전 세계적인 사회안전망을 구성하는 데 일조하길 바라며 이 글을 마친다.
※ 본 기고는 한국교육개발원 발간지 '교육개발' 2024. 봄호(통권 제230호)에 게재 된 글입니다.
1) Algorithm Watch https://algorithmwatch.org/en/image-generators-stereotypes-diversity/
2) 사람이 중심이 되는 『인공지능 윤리기준』 https://ai.kisdi.re.kr/aieth/main/contents.do?menuNo=400029
3) 영문판 초등, 중등, 고등 인공지능 윤리교재는 “인공지능 윤리 소통채널” ( https://ai.kisdi.re.kr/eng/main/contents.do?menuNo=500013 )에 `24년 4월에 업로드 될 예정