김헌용 · 신명중학교 영어 교사, 함께하는장애인교원노동조합 위원장
이 글은 2026년 4월 20일 시민기술네트워크 이로운기술정책연구소의 제6회 공개 웨비나 발표와 그 뒤에 이어진 질의응답을 정리한 것입니다. 블로그 글의 목적에 맞게 주제 의식을 조금 더 드러내는 방향으로 수정하였습니다.
발표 슬라이드 보기
들어가며
시민기술네트워크 이로운기술정책연구소에서 주최한 웨비나 발표 날은 공교롭게도 제46회 장애인의 날이었다. 일 년 중 가장 바쁜 날 가운데 하나다. 아침부터 장애인 교원 관련 보도자료를 배포하고, 장교조 조합원들에게 기념 이벤트를 공지하고, 수업을 하고, 기자들 문의 전화를 받느라 발표 자료는 시작 직전에야 막바지 손질을 마칠 수 있었다. 저녁 7시에 접속한 Zoom에는 시민기술네트워크의 낯익은 이름과 새로운 인연이 고르게 섞여 있었다.
이 네트워크와의 인연은 작년 5월로 거슬러 올라간다. 당시 시민기술네트워크가 내놓은 16대 정책 매니페스토에는 접근성 네 가지 안건, 교육 분야 두 가지 안건이 들어가 있었고, 그중 8번 「교육 분야 포용적 AI 기술 개발 및 도입」이 내가 초안을 잡은 항목이었다. 이번 웨비나 자리는 그 제안이 1년이 지난 지금 현장에서 어떤 실천으로 이어지고 있는지 돌아보는 자리였다.
웨비나에 참여한 분들께 나를 이렇게 소개했다. 시각장애가 있고, 서울 신명중학교에서 16년 차 영어 교사로 있으며, 함께하는장애인교원노동조합(장교조)의 위원장으로 6년째 일하고 있다고. 한편, AI 사용 경력에 대해서는 "Claude Code를 사용하고 있다"는 말로 소개를 갈음했다. 요즘엔 보통 이 한마디면 'AI를 조금 다룰 줄 아는 사람'으로 통하는 분위기이기 때문이다.
내가 기술과 관련해 평소에 골몰하는 화두 중 시민기술네트워크의 지향과 연결되는 것이 두 가지 있다. 하나는 장애인 접근성을 둘러싼 법제도와 현장의 괴리를 어떻게 좁힐까 하는 것이다. 다른 하나는 AI가 전방위적으로 침투하는 교육 분야에서 장애인의 교육받고 가르칠 권리를 어떻게 지켜 내고, 나아가 모두를 위한 AI로 어떻게 넓혀 갈 것인가 하는 문제다.
우리나라의 디지털·AI 관련 법은 세계 어디에 내놓아도 손색없을 만큼 선진적이다. 올해 1월 22일 시행된 AI 기본법과 디지털포용법은 윤리 원칙의 핵심 요소로 '접근성'을 명시하고 있고, 장애인차별금지법은 이미 오래전부터 디지털 접근성을 정당한 편의 제공의 범주로 흡수해 왔다. 특수교육법에서도 어느 정도 다루고 있다. 그런데 노동조합 활동을 오래 하다 보면 늘 같은 지점에 부딪힌다. 법제도와 현실의 간극이 너무 크다는 것. 이동권, 교육받을 권리, 문화 향유권까지, 법률에서 선언하는 다양한 권리는 좀처럼 장애인, 교통약자·취약계층의 삶에서는 구현되지 않는다. 이 간극은 디지털 기술 및 웹 접근성의 영역에서는 훨씬 더 넓게 벌어진다.
한편, 교육 쪽 고민은 조금 다른 방향에서 왔다. AI 디지털교과서(이하 'AIDT')가 국정 과제로 처음 올라온 2023년 이래로 교육 분야의 AI 논의는 사실상 이 한 주제로 수렴해 왔다. 학계의 효과 검증도, 교사 단체의 기술 관련 담론도, 시도교육청의 인프라 투자 계획도, 장애 학생과 장애인 교원의 접근성 논의까지도 모두 AIDT라는 한 그릇 안에서만 다루어졌다. 접근성 영역으로 좁혀 보면 이 쏠림은 한층 뚜렷했다. 대체자료 납본, 장애학생 맞춤형 콘텐츠, 에듀테크 개발 초기 당사자 참여처럼 오래전부터 장애인교원·장애학생 쪽에서 짚어 온 교육자료 접근성 관련 과제들이 AIDT 개발이라는 새 의제 안에서만 힘을 얻었다. 그러나 장애인 교육 주체의 관점에서 이 전환은 양가적인 감정을 불러일으켰다. AIDT처럼 국가가 한꺼번에 도입해 버리는 방식은 접근성 기준과 검증 절차만 잘 설계하면 전국 학교에 일률적으로 적용되는 장점이 있었기 때문이다.
그러던 2025년 8월, 초중등교육법 개정으로 말도 많고 탈도 많았던 AIDT가 '교과서' 지위를 잃고 '교육자료'로 내려앉았다. 그리고 그 자리에는 디지털·AI 춘추전국 시대가 열렸다. 올해부터는 각 학교의 학교운영위원회가 학습지원 소프트웨어 한 건 한 건을 심의하는 구조로 바뀌었다. 심의의 필수 기준은 대체로 개인정보 보호로 촘촘하게 짜여 있다. 문제는 접근성이 '선택 사항'으로만 머물러 있다는 점이다. 학교마다 도입하는 소프트웨어가 제각각이어서 법률 하나로 이를 일괄 규제하기도 어렵다. 분산된 환경에서 접근성이 일률적으로 보장되는 것이 사실상 불가능해진 셈이다. 학운위에 스크린리더나 보조공학을 직접 검수해 본 구성원이 있을 가능성도 높지 않다. 그래서 오히려 이런 분산 구조일수록 중앙에서 붙들어 줘야 할 지지대가 필요해진다. 시민기술네트워크가 일찍부터 제안해 온 공공조달 우선구매, AI 사회적 영향평가 제도화 같은 장치가 이 빈틈을 대신 메워 주는 방향으로 작동할 수 있다.
이 글에서는 시스템의 공백 속에서 당사자의 필요에 의해 대안적으로 구축된 세 가지 AI 활용 사례를 공유한다. 시각장애인, 교사, 노동조합 위원장이라는 세 역할을 수행하며 현장에서 적용해 온 접근성 도구, 교실 수업 도구, 노동조합 운영 도구가 그것이다.
1. PDF와 한글 문서를 AI가 읽게 만드는 두 스킬
일상생활에서 내가 가장 자주 부딪히는 것이 문서 접근성이다. 옛날에는 이 접근성 격차를 메워주는 것이 OCR(광학 문자 인식)의 몫이었다. OCR은 오랫동안 시각장애인에게 가장 친숙한 보조 기술이었다. 그런데 AI 시대가 되면서 OCR만으로는 부족해졌고, OCR을 기본 탑재한 문서 파싱(Document Parsing)이라는 개념이 보편화됐다. 많은 테크 기업이 여기에 매달리는 이유는 단순하다. 우리 주변에 쌓인 비정형 데이터를 AI가 처리할 수 있는 정돈된 형태로 클렌징하는 일이 어느 조직에서든 AI 도입의 첫 관문이기 때문이다.
AI가 가장 잘 다루는 형식은 마크다운 같은 텍스트 기반 문서인데, 공교롭게도 그런 텍스트 기반 문서를 평생 가장 절실하게 원해 온 집단이 시각장애인이다. 시각적 정보와 이미지 기반 정보를 어떻게 텍스트화할 것인가는 우리에게 평생의 고민이다. 그래서 내가 자주 하는 이야기가 있다. AI 시대에 시각장애인이 AI의 도움을 받는다는 쪽으로만 말이 흐르는데, 실제로는 시각장애인을 위해 개발되어 온 보조 기술이 AI 발전에 꽤 기여한다는 사실이다. 얼마 전 구글이 개발 관련 팟캐스트에서도 개발자들이 같은 이야기를 하는 걸 들었다. AI의 기술과 장애인 접근성이 그렇게 멀지 않다는 것은 앞으로 여러 국면에서 점점 더 자주 확인될 것이다.
이런 배경에서 내가 오랫동안 구축하고 보완해 온 두 가지 스킬이 있다.
첫째는 docparse 스킬이다. 시중에 나와 있는 어떤 문서 파서도 완벽하지 않기 때문에 오픈소스와 상용 도구 다섯 개를 결합해 교차 검증을 시키는 용도로 개발했다. LlamaParse, Upstage, Mistral, Gemini에 최근 한컴에서 오픈소스로 풀어낸 Open Data Loader(ODL)까지 5종이다. 특히, ODL은 오픈소스인데도 텍스트 기반 PDF에서는 거의 프로덕션 급이고, 속도도 빠른 데다 무료다. 여러 엔진의 결과를 교차 검증해 최대한 무결한 마크다운 문서를 만들어내는 것이 이 스킬의 핵심이다.
그런데 이 과정은 내 개인 보조 기술에만 머물지 않는다. 어떤 조직이든 AI를 도입할 때 가장 먼저 마주치는 문제가 "우리 조직의 비정형 문서를 AI가 읽을 수 있는 형태로 어떻게 바꿀까"이다. 따라서 장애 당사자의 필요에서 시작된 이 스킬은 범용적인 문서 전처리 파이프라인으로도 확장 가능하다. 실제로 나는 장교조가 보유한 데이터를 AI 처리를 위해 파싱할 때도 이 스킬을 자주 사용한다.
둘째는 hwpx-automation 스킬이다. 내가 각종 오픈소스 도구를 엮어 만든 한글 문서 처리 스킬이다. 매일같이 보는 수많은 공문을 일일이 테스트해 가며 스크립트와 지침을 계속 손질한 덕에 이제는 어느 정도 쓸 만해졌다. 학교에서 서식을 받으면 Claude Code에 던져 주고 "이 공문 서식 채워 줘"라고 말하면 채워진 한글 문서가 나온다. 시각장애인 교사에게 가장 고통스러운 '표 안의 셀 탐색'이 자연어 한 줄로 바뀐 것이다. MIT 라이선스로 공개해 두어 같은 문제를 마주한 다른 사람도 바로 가져다 쓸 수 있다.
이러한 도구들은 공공 부문의 비정형 데이터를 정제하고 자산화하는 과제와 직결된다. 장애 보조를 위해 구축한 도구로 출발했지만, 모두를 위한 보편적 생산성 인프라로 진화할 가능성이 있는 셈이다.
2. AI로 만든 수업용 앱들
두 번째 사례는 올해 내가 가르치는 중학교 1학년 영어 수업을 준비하면서 나온 것들이다. 어느 날 아침 영영풀이 단어 학습지를 보다가, 이걸 중학교 1학년 학생들에게 그대로 외우라고 하면 너무 재미없겠다 싶었다. 수업을 30분 앞두고 Claude Code에게 게임으로 만들어 달라고 제안했고, 그렇게 Word Bomb이라는 게임이 탄생했다. 상용 API를 쓰지 않은 순수 코딩 결과물이었는데도 아이들의 반응이 매우 좋았다.
재미난 에피소드도 하나 있었다. 아이들이 좋아하니까 욕심이 나서 Gemini API로 단어 발음을 추가했는데, 'laugh'라는 단어가 발음 대신 진짜 웃음소리로 생성된 것이다. 수업 중 그 파일이 재생되는 순간 아이들이 빵 터졌다. 이후로는 내가 앱을 가져갈 때마다 "선생님, 이번엔 실수 없어요?"라며 실수를 기다린다. 섬뜩할 만큼 자연스러운 음성을 만들지만 여전히 한두 개씩 실수를 하는 AI의 빈틈이 오히려 학생들과 나의 정서적 접점이 되어 주었다.
▶ 실제로 생성된 소리 ('laugh' 발음을 요청했더니 나온 결과)
▶ 원래 의도했던 'laugh' 발음
이걸 계기로 힘을 얻어 게임 두 개를 더 만들었다. 교과서 지문을 탐정 서사로 재구성한 독해 게임 Story Detective, 문법 규칙을 마법의 물약 테마로 푼 Grammar Potion Lab이다. 발음만 해도 Gemini TTS로 입힌 음성이 교과서 성우 녹음과는 다른 자연스러움이 있어서 그 자체로도 듣는 재미가 있다. 점수제도 내가 특별히 정교하게 짜지 않고 Claude Code가 제안한 대로 두었는데, 정확도에 속도까지 반영되는 구조여서 재미를 더했다. 아이들은 점수에 사활을 걸고 문제를 푼다.
한편 동료 교사의 주문으로 시작된 Pick Me도 있다. 수업 중 학생을 무작위로 뽑되 성별 인원을 지정할 수 있고, 미리 교사가 선정해 둔 학생이 뽑히게 할 수도 있다. Claude Code로 앱을 개발하면서 "시각적으로 화려하되 접근성을 갖춰 달라"는 한 줄을 덧붙였다. 그 결과 ARIA 레이블, 키보드 내비게이션, 고대비 색상이 첫 프롬프트에서부터 자연스럽게 구현된 3D 앱이 나왔다. 3일 만에 나온 작품이다. Claude Code가 접근성 구현을 기가 막히게 해 주기 때문에, 이제는 어떤 앱을 만들 때 "접근성을 몰라서 못 만든다"는 말이 더는 설득력을 갖기 어려운 시대가 되었다.
물론 비개발자로서 한계도 경험했다. 1년간 고도화해 온 자리표 앱은 작년 8월 Claude의 Artifact 한 장으로 시작해 지금은 Supabase와 Vercel을 얹은 풀스택 앱으로 진화했다. 그런데 교사 뷰와 학생 뷰를 좌우로 반전시켜 보여 주는 기능이 화면 위에서는 완벽하게 돌아가지만, 스크린리더로 똑같이 반전하여 탐색할 수 있게 하는 것에는 끝내 실패했다. 그 기능 없이도 앱을 사용하는 데는 전혀 문제가 없지만, 아주 세밀한 구현 단계에서는 이렇게 시행착오를 겪는 일이 매우 흔하다.
3. 1인 실무자 장교조를 스킬 20개와 에이전트 7개로 돌리다
세 번째 사례는 장교조 업무다. 우리는 상근 사무국이 없다. 현직 교사들이 교직과 노조를 겸하다 보니 위원장인 내가 회의록, 회계, 법령 모니터링, 조합원 안내까지 거의 모든 업무의 실무를 겸한다.
그런데 올해 2월부터는 이 업무들을 AI 중앙집행위원회라는 이름으로 정리해 놓고 운영하고 있다. 구체적으로는, 스킬 20개, 에이전트 7개, 커스텀 GPT 1개를 구축했다. 크게 세 층위로 나누어 볼 수 있다. 집행부 층위·조합원 층위·대외 층위가 그것이다.
가장 낮은 층위는 내부 업무다. 사무처·정책실·대변인·재정국 업무까지 Human in the loop, 즉 사람이 마지막에 검증하는 원칙을 유지하면서도 많은 부분을 자동화해 두었다. 총회 같은 한 달짜리 프로젝트는 D-35부터 D+2까지의 워크플로우를 하나의 스킬로 결정화해, 다음 총회부터는 "총회 준비해 줘" 한 마디로 움직이게 만들었다. 짧게는 알리고를 이용하는 문자 발송까지 스크립트로 묶어, 외부 서비스도 Claude Code가 이용할 수 있도록 만들었다.
두 번째, 중간 층위는 구성원 반경이다. 에이전트 중 가장 쓸 만해진 것이 고충 상담 에이전트다. 어느 날 한 청각장애 선생님이 채팅방에 "학교에서 이런 일을 당했는데 어떻게 공제회에 신청할 수 있을까요" 하고 물어왔는데 내가 바로 답하기 어려웠다. 그래서 장교조 드라이브에서 Claude Code를 실행하고, 드라이브에 쌓인 자료들을 검색해 답변을 만들게 했다. 앞으로 비슷한 질문이 계속 올 것이라 판단해 이 과정을 에이전트로 묶어 두었다. 다만 조합원에게 직접 영향을 주는 AI 활용은 더 조심해야 한다. 개인정보가 포함될 수밖에 없는 고충 상담 영역은 특히 그렇다. 그래서 지금은 조합원의 실제 고충 상황을 직접 데이터로 입력하지 않고, 반복되는 제도 질문에 어느 정도 답할 수 있을 정도로만 열어 두었다.
세 번째, 가장 높은 층위는 대외 층위다. 장교조 어시스턴트는 비조합원도 접근할 수 있는 커스텀 GPT다. 근로지원인 제도, 편의지원, 가입 조건 같은 정보 중심으로 구성했다. 장교조 페이스북에 링크를 올려놓았더니 거기서 우리 조합을 알게 된 분이 먼저 어시스턴트에게 근로지원인 정보를 물어본 뒤, 해결되지 않는 궁금증에 대하여 노조 사무실로 전화해 문의한 사례가 있었다. 내부 데이터를 전부 RAG로 구현해 챗봇을 만드는 일은 쉽지 않기 때문에, 핵심 문서를 지식 베이스로 올려 둔 커스텀 GPT를 시도했는데, 이런 구체적인 전환 사례를 마주하면서 내 관점이 바뀌었다. 공익 AI가 단순한 자동화 도구가 아니라 조직 외부와의 접촉면을 넓히는 장치가 될 수 있다는 것을 확인했다.
뜨거운 Q&A가 이어지다
발표 뒤에 Q&A가 길게 이어졌다. 질문이 다양하고 깊어서 대답하는 쪽이 더 공부가 되는 시간이었다. 주요한 대목만 정리해 둔다.
-
Q. 스크린리더는 아무래도 기계적인 낭독 방식이잖아요. Claude Code 안에 응답을 읽어 주는 AI 기능이 따로 장착돼 있다면 훨씬 세련될 것 같은데, 선생님은 Claude Code로 코딩하실 때 그 내부 기능을 쓰시는지, 아니면 바깥의 스크린리더를 쓰시는지 궁금합니다. 어떤 원리로 돌아가는지 조금 이해하고 싶어서요.
A. 업무 환경 구축 이야기인데, 사실 업무 환경 구축이라는 건 우리 모두의 과제 아닌가 싶습니다. 기본은 스크린리더에 점자 디스플레이를 붙여 씁니다. 처음에는 이 터미널을 점자로 디스플레이를 못 해 주더라고요. 그래서 제가 엄청 컴플레인을 넣었죠. 터미널을 점자까지 읽어 주게 하라고. 소리만 듣고는 Claude Code의 복잡한 텍스트 정보를 다 따라갈 수 없으니까요. 그런데 그걸로도 부족해서 Claude Code의 응답을 음성으로 요약해 읽어 주는 플러그인을 찾아냈습니다. Agent Vibes라는 도구인데, 이걸 제가 원하는 방식으로 고쳐서 중간 버전·긴 버전 요약으로 읽어 주게 했습니다. 훅을 쓰는 방법입니다. 그래서 '소리 나는 Claude Code'를 어느 정도는 구현해 두었습니다. 참고로 제가 아는 한 시각장애인 교장 선생님은 터미널이 각광받는 이 변화를 두고 "GUI가 보편화되며 시각장애인을 뒤로 밀어냈던 그 이전, 그러니까 1990년대 DOS 시대가 다시 돌아온 것 같다"라고 표현하셨습니다. 터미널의 부상이 시각장애인에게 글로 비장애인과 다시 대등하게 컴퓨터를 만질 창을 열어 준 셈입니다.
-
Q. 시민기술네트워크는 원래 10년 가까이 카카오톡 단체 채팅만으로도 충분한 공동체였는데, 2년 전부터 정책 매니페스토를 같이 쓰고 법안도 같이 만들면서 업무용 협업툴이 필요해져 결국 텔레그램으로 옮겨 왔습니다. 선생님은 시각장애로 텔레그램 접근성이 어려우시다고 하셔서, 얼마 전 저희 텔레그램 그룹을 복제한 가상 공간에 선생님 에이전트 AI를 붙여 세 계정이 모의 테스트를 해 본 적이 있습니다. 가능성은 많이 확인했지만 Claude와 텔레그램이 잘 매칭되지 않아 결국 접었는데요. 에이전틱 AI를 커뮤니티나 공론장, 협업 네트워크에 붙여 보신 그간의 소회가 궁금합니다. 텔레그램에서는 특히 어떤 지점이 가장 막혔는지도 듣고 싶습니다.
A. 저희 네트워크의 텔레그램 그룹을 복제해 가상 그룹을 만들고 거기에 제 오픈클로(OpenClaw) 에이전트를 붙여 본 실험이 있었습니다. 가능성은 확인했지만 결국 접었습니다. 기술적인 문제보다 역시 개인정보 문제가 컸어요. 오픈클로가 텔레그램에 붙어도 남의 대화를 먼저 읽지는 않도록 기본 설정이 되어 있는데, 그 가드를 낮추는 순간 그룹의 모든 대화가 클라우드 회사로 흘러 들어가는 보안 문제가 생겨 버립니다. 한편으로는 다행스러웠습니다. 모든 것이 다 AI로 넘어가면 안 되니까요. 카카오도 ChatGPT 통합을 신중하게 진행하는 이유가 같은 자리에 있을 것이고요. 반대로 같은 시기에 다른 경로의 협업이 열리기도 했습니다. 투표 기능이 있는 파티 타운홀 플랫폼의 접근성이 조금 부족해서, 제 접근성 지식에 Claude Code의 도움을 더해 사이트 진단 보고서를 다양한 형태로 만들어 드렸더니 빠르게 개선되어 저희 총회 투표에 쓸 수 있었습니다. 기존 AI가 없었다면 상상하지 못했을 협업이 조금씩 가능해지고 있다는 감각을 저는 이 사례에서 받았습니다.
-
Q. 저희는 작년 AIDT 만들 때도 접근성 평가를 아주 열심히 했고, 올해도 새 평가가 진행되고 있는 걸로 압니다. 그런데 평가 기준표를 보다 보면 'AI로 이미 처리 가능한 항목인데 왜 여전히 이걸 사람 점수로 매기고 있지' 싶은 지점이 꽤 있어요. 지금의 접근성 평가나 관련 정책이 AI 시대를 반영하지 않은 채 만들어져 있다는 게 제 진단인데요. 선생님이 보시기에, AI 시대에 맞춰 접근성 평가 기준에서 가장 개선되어야 할 점, 반대로 이제는 더 이상 필요가 없어진 항목, 그리고 AI 시대에 새로 필요해진 기준이 있다면 무엇일까요.
A. 웹 접근성 영역은 사실 인프라이기도 합니다. 웹 접근성이 갖춰진 곳에서 AI가 그 위에서 뛰어놉니다. Claude Code 같은 에이전트가 알아서 DOM 트리를 읽고 작업을 하기 때문이에요. 그래서 제 앱을 AI가 접근 가능하게 만드는 전처리 과정에 저는 웹 접근성이 있다고 봅니다. 서로 배제 관계가 아니라 포함 관계에 가깝습니다. 제도상 뒤처진 부분은 그 위에서 열린 새로운 영역들입니다. 로봇 같은 피지컬 AI나 멀티모달 쪽, 그리고 단순한 게시판 형태를 벗어난 복잡한 UX의 접근성. 지금은 UI 접근성 수준까지만 논의가 되어 있고, 장애인이 이 앱에서 어떻게 즐길 수 있을지 같은 기획 단계의 접근성은 제도가 담지 못합니다. 장애인차별금지법을 볼 때마다 답답해지는 이유입니다. 지금 기술이 열어 주는 무한한 가능성에 비하면, 장차법이 보장해 주는 것이 너무 적은 것인가 하는 생각을 자주 합니다.
-
Q. 오늘 발표 중에 Human-in-the-Loop 이야기를 하셨습니다. 에이전트가 인더루프(in the loop)에 있어야 할지 언더루프(under the loop)에 있어야 할지가 AI 시대에 큰 숙제 같은데요. 일상생활에서도, 어떤 결정적 장면에서도 인간이 꼭 안에 있어야 하는 순간이 분명히 있고, 반대로 자율형 에이전트에 맡겨야 효율적인 순간도 있을 겁니다. 선생님이 보시기에 인간이 통제할 수 있는 에이전트와 자율형 에이전트 사이 경계는 어디쯤이 적당할까요. 특히 장애인 당사자의 일상에서 AI에 어느 선까지 위임해도 되는지, 선생님 본인의 경험에 비추어 방향성을 듣고 싶습니다.
A. 너무 큰 주제여서 제가 답하기에 부족할 수 있지만, 저는 장애인으로서의 취약점을 극복하거나 보완하기 위해 AI를 무지막지하게 사용하는 쪽에 가깝습니다. 월 200달러짜리 Claude Code 구독을 쓰고 있고요. 실제로 장애인들은 그냥 다 위임해 버리고 싶은 마음이 굴뚝같을 거예요. 그런데 그 위임에서 초래될 수 있는 위기에도 가장 취약한 존재가 바로 장애인입니다. 사용하다가도 "내가 여기까지 하는 게 맞나" 싶어지는 순간이 자주 옵니다. 어디까지 위임할 것인가를 최전선에서 고민하는 것도 결국 장애인인 것 같아요. 저희 노동조합에는 목 아래로는 거의 움직이지 못하고 손도 아주 조금만 쓰시는 휠체어 장애인 선생님이 계신데, 그분도 AI에 관심이 정말 많으십니다. 비장애인보다 위임의 역치가 낮고, 그래서 훨씬 더 둔감해지기도 쉽고, 반대로 훨씬 더 과감하게 도전하게도 됩니다.
-
Q. SNS 접근성에 대한 질문입니다. 저는 선생님의 인스타그램과 페이스북을 팔로우하며 근황을 접하고 있는데요, 인스타그램은 이미지와 영상이 반드시 있어야 글을 올릴 수 있는 시각 중심 SNS라 시각장애인의 정보 접근성이 현저히 낮다고 합니다. 특히 24시간 뒤 사라지는 스토리 기능은 대체 텍스트를 다는 사람이 거의 없고, 작성자 입장에서 AI로 자동 대체 텍스트를 생성해 주는 기능도 아직 구현되어 있지 않더라고요. 청년들이 가장 많이 쓰는 SNS가 인스타그램인 만큼 이 공백이 꽤 크게 느껴집니다. 선생님이 인스타그램을 쓰시며 겪으신 애로사항이 있는지, 그리고 메타가 AI를 활용해 시도할 수 있는 개선책은 무엇이 있을지 여쭙고 싶습니다.
A. 저희 인스타그램은 블라인드벗(@blind.but) 계정이라는 이름으로 아내가 운영하고 있습니다. 저는 텍스트 위주라 페이스북을 더 많이 썼고요. 비즈니스 계정으로는 메타 API가 열려 있어서 Claude Code로 이미지 대체 텍스트를 생성하는 구현이 기술적으로는 얼마든지 가능합니다. 다만 클라우드 API로 처리하면 비용이 꽤 듭니다. 그래서 최근에는 노트북에 설치된 로컬 LLM(온디바이스 AI)으로 제 컴퓨터의 한 폴더에 있는 이미지 1,000여 개의 파일명을 대체 텍스트로 한꺼번에 바꿔 봤는데 비용이 0원이었습니다. 로컬 온디바이스 AI가 확산되면 인스타그램 같은 플랫폼이 자체 기능을 넣어 주지 않아도, 시각장애인이 자기 디바이스 설정만 켜면 접근성이 크게 올라가는 구조가 생깁니다. 올해가 또 온디바이스의 해가 될 것 같아서, 이쪽에 기대를 걸고 있습니다.
마치며: 개인의 결핍이 공공의 인프라로 연결되는 길
내가 만들어 온 세 가지 사례는 서로 다른 자리에서 시작했지만 결국 하나의 뿌리로 수렴한다. 어느 것도 거창한 공익을 앞세워 출발하지 않았다는 점이다. 시각장애가 있어 문서를 읽어야 했고, 수업이 지루하지 않기를 바랐으며, 상근자 없는 노조가 굴러가야 했기에 도구를 만들었다. 출발은 지극히 개인적이고 절박한 필요였으며, 지금도 여전히 현장의 투박한 도구로 남아 있다.
그러나 이 개인적인 필요가 닿은 자리는 꽤 자주 공공의 빈틈과 정확히 겹쳐 있었다. 비정형 데이터를 AI가 읽을 수 있게 정제하는 과정은 공공 데이터 개방의 선결 과제이며, 현장 교사가 직접 접근성 도구를 구축하는 일은 에듀테크의 포용성을 측정하는 리트머스 시험지다. 노조 운영의 자동화 역시 기술을 통한 공론장 확장의 가능성을 보여주는 중요한 실험이다. 결국 장애라는 조건은 AI를 공익에 활용하려는 이들이 언젠가 마주하게 될 미래를 조금 앞당겨, 기술의 한계가 드러나는 최전선에 우리를 먼저 세웠을 뿐이다.
결국 시각장애인이 평생 요구해 온 텍스트 기반 환경이나 기획 단계부터의 접근성 설계는 AI가 세상을 더 정확히 이해하게 만드는 보편적 인프라로 이어진다. 이런 의미에서 접근성은 더는 시각장애인만을 위한 배려가 아니다. 그것은 AI 시대에 기술이 인간을 소외시키지 않도록 지탱하는 가장 단단한 토대이자 데이터의 흐름을 돕는 필수적인 혈관이다.
물론 현장의 개별적인 분투만으로는 한계가 명확하다. 앞서 언급했듯, 학교 단위로 파편화된 AI 도입 환경에서 중심을 잡아줄 제도적 지지대가 반드시 필요하다. 개별 교사나 당사자의 선의에 의존하는 단계를 넘어, 현장의 실천이 정책적 기준으로 결정화되어야 한다. 장벽을 허물기 위해 쌓아 올린 현장의 코드가 이 지지대와 만날 때, 기술은 비로소 누구도 소외시키지 않는 온기를 가질 수 있다.
이재흥 이사는 웨비나에서 "함께 교류하고 행동하여 세상을 바꾸어 나가자"고 말했다. 세상을 바꾸는 일은 거창한 설계도를 한꺼번에 실행하는 것이 아니라, 각자가 처한 장벽 앞에서 먼저 낸 작은 길들을 서로 발견하고 그 사이를 잇는 과정이다. 터미널의 검은 화면 위에서 점자 디스플레이를 만지며 써 내려간 이 기록들이, 또 누군가가 마주한 장벽 너머의 길과 연결되기를 바란다.