AI를 거부 vs AI 활용, 그 경계를 넘어서는 인간 고유의 능력
AI를 거부할지 활용할지가 고민될 때, 경계 사이에서 방향을 명확하게 하는 인간의 고유한 능력은 무엇일까?
AI와 함께 일하는 시대, 우리가 잃기 쉬운 감각에 대하여
얼마 전 서울교육대학교의 박형빈 교수가 이런 말을 했다. “교실은 AI의 사용법만을 가르치는 공간이 아니라, AI를 어떻게 거부할 것인가를 질문하는 공간이어야 합니다.” 이 문장을 처음 봤을 때, 고개가 약간 갸웃해졌다. 나의 주요 고객인 기업이나 기관에서 AI를 도입하고 있는 담당자의 관점에서 생각해 보면 지금도 다들 바쁜데, AI를 ‘거부하는 법’까지 배워야 하나? 결국 쓰지 말자는 이야기처럼 들릴 수도 있기 때문이다.
그러나 이 말은 조금 다른 방향을 가리킨다. 여기서 ‘거부’는 금지나 반대가 아니다.오히려 “그럼에도 불구하고 내가 선택한다”는 감각에 가깝다. 예를 들어 AI가 추천한 문장을 그대로 쓸 수도 있다. AI가 제안한 평가 결과를 채택할 수도 있다. 중요한 것은 그 선택이 자동으로 미끄러져 내려간 결과인지, 아니면 잠깐 멈춘 뒤 “그래도 이게 맞겠다”고 고른 결과인지를 구분하는 일이다. 박형빈 교수가 말한 ‘거부 능력’은 바로 그 멈춤의 능력이다.
AI를 쓰지 않는 힘이 아니라, AI 앞에서 생각을 놓지 않는 힘이다. 그래서 박형빈 교수는 윤리에 대해서도 이렇게 말한다. 윤리는 정답의 문제가 아니라 정당화의 문제라고. 내 선택을 누군가에게 설명할 수 있는가, 그리고 그 결과를 회피하지 않을 수 있는가. 이 질문이 윤리의 출발점이라는 것이다.
이 말은 교육 이야기 같지만, 사실 조직과 일상의 언어에 더 가깝다. 우리는 이미 매일 정당화를 하고 있다. 왜 이 방식을 선택했는지, 왜 이 기준을 적용했는지, 왜 이 결정을 지금 내렸는지. AI가 들어오는 순간, 이 설명의 주체가 흐려지기 시작한다. “AI가 그렇게 나왔어요”라는 문장이 너무 쉽게 모든 질문을 덮어버리기 때문이다.
버클리대학교 Stuart Russell교수의 이야기는 AI 사용과정에서 나타나는 위험성은 “너무 똑똑해서”가 아니라 더 근본적인 이유는, 우리가 AI에게 고정된 목표를 하나 던져주고 최적화하라고 시키는 방식에 있다고 강조한다.
매출을 높여라, 시간을 줄여라, 효율을 극대화하라. 이 목표들은 틀리지 않았지만, 언제나 불완전하다. 그 목표 안에는 직원의 피로도도, 고객의 신뢰도, 조직이 오래 버텨야 한다는 감각도 온전히 담기지 않는다. AI는 그 빈칸을 채우지 않는다. 그저 주어진 목표를 아주 성실하게 밀어붙일 뿐이다.
그리고 그 과정에서 인간이 원래 하던 “잠깐만, 이건 아닌 것 같은데”라는 판단은 점점 설 자리를 잃는다. 이 지점에서 박형빈 교수의 ‘거부’는 감정이 아니라 기술적 필요가 된다. 고정된 목표가 우리를 한 방향으로 끌고 갈 때, 그 흐름을 중단하고 다른 가능성을 다시 테이블 위에 올려놓는 힘. 그게 없다면, 우리는 효율적인데 어딘가 불편한 조직 안에서 일하게 된다.
그런데 여기서 질문은 하나 더 생긴다. 그 목표는 누가 정했을까? 그리고 그 목표를 달성하는 동안, 누가 더 많은 부담을 떠안게 될까?
서던 캘리포니아대학 교수이자 마이크로소프트 연구원인 Kate Crawford 는 바로 이 지점을 파고든다. 그녀는 AI를 중립적인 도구로 보지 말라고 말한다. AI는 언제나 누군가의 관점과 이해관계를 반영하고, 보이지 않는 곳에서 노동과 자원과 시간을 끌어다 쓴다. 조직에서 AI를 도입할 때, 우리는 종종 이렇게 말한다. “객관적으로 판단해 줄 거예요.” 하지만 객관성이라는 말 뒤에는 늘 기준이 있다. 그 기준은 누군가에게는 편리하고, 누군가에게는 불리하다. 성과 평가, 채용 추천, 고객 분류 같은 장면을 떠올려 보면 좋다. AI가 만든 결과가 더 깔끔해질수록, 우리는 그 기준이 만들어진 과정을 묻지 않게 된다.
바로 그 순간! 관계는 사라지고 관리만 남는다. 그래서 여기까지 오면, 마지막 질문이 자연스럽게 이어진다.
그렇다면 어디까지를 AI에게 맡기고, 어디서 멈춰야 할까? 튜링상을 받은 Yoshua Bengio 는 이 질문에 꽤 단호하게 답한다. 충분히 안전하다고 말할 수 없는 영역에서는, AI가 아무리 그럴듯한 답을 내놓더라도 행동하게 두지 말아야 한다는 것이다. 이 말은 기술 낙관이나 공포 조장이 아니다. 오히려 아주 현실적인 태도다.
사람의 삶에 큰 영향을 미치는 결정일수록, 우리는 속도보다 멈출 수 있는 구조를 먼저 만들어야 한다. 결국 여기까지의 이야기는 하나로 모인다. AI를 어떻게 만들 것인가의 문제가 아니라, AI와 함께 있을 때 인간에게 무엇을 남겨둘 것인가의 문제다. 판단할 권리, 설명할 책임, 그리고 필요할 때 “아니요”라고 말할 수 있는 중단권.
이 셋이 사라지지 않는 한, AI는 도구다. 이 셋이 사라지는 순간, 우리는 도구를 쓰는 사람이 아니라 흐름에 떠밀리는 존재가 된다. 그래서 AI와의 건강한 관계는 거창한 철학이 아니다. 회의실에서 한 번 더 묻는 질문, 교육장에서 일부러 멈추는 순간, 강연이 끝난 뒤 명함을 주고받으며 나누는 짧은 대화 속에서 만들어진다.
“이 선택은 정말 우리가 하고 있는 걸까요?”
“지금 이 편리함은, 무엇을 대신 포기하고 있는 걸까요?”
이 질문을 놓지 않는 한, AI가 아무리 빨라져도 우리는 완전히 뒤처지지 않을 것이다. 왜냐하면 판단하는 능력만큼은 아직 인간의 몫이기 때문이다.