본문 바로가기
카테고리 없음

AI 조력자의 한계: ChatGPT를 너무 믿으면 안된다는 교훈

by wellben 2025. 4. 3.

오늘 ChatGPT를 활용하다 겪은 낭패를 기록해 본다. 그는 계속해서 잘못된 해결책을 반복적으로 제시했고(해결책 A를 제시: 오류 → B를 대안으로 제시: 오류 → 다시 A를 대안으로 제시: 오류 → 다시 B 제시, 무한 반복.....), 그 과정에서 오히려 이상이 없던 부분에서 치명적인 문제까지 일으켰다. 현상 세계에서 실질적으로 붕괴하는 건 시간과 멘탈이다.


ChatGPT랑 이렇게 많은 채팅을 하게 될 줄은 몰랐다. 처음에는 반말로 친근하게 하더니 어느 본인의 순간 잘못을 깨달았는지 정중해졌다. 피드백을 주었다.

 

 

통찰력이 필요한 순간, AI의 한계를 마주하다

결국 수작업으로 간단히(?) 해결했다. 녹아내리는 시간의 절망 속에서 탄생하는 직관이 더 중요했고, ChatGPT가 제시한 방향은 수많았지만 결국 쓸모 없었을 뿐만 아니라 위험했다.

 

물론 프로그래밍 언어에 대한 지식이 부족한 내 탓이겠지만, AI를 철썩 같이 믿은 게 한몫했다. 그가 제시해 준, 위험하니 먼저 백업을 하라느니 복잡한 SQL를 쓰라느니 그런 건 필요 없었다. 이건 단순히 지식도 아니고 알로리듬을 따라가는 사고가 아닌 문제를 보는 전반적인 안목이 필요한 부분이었다. ChatGPT는 그걸 제시하지 못했다.

 

약간 아이러니한 부분이다. AI는 생물이 아니다. 그래서 사실 시간 관념도 없다. 시간은 인간만이 가지는 고유한 일종의 '버그'다. 예를 들어, 인간이 밤을 새워 문제를 해결했다면, 그 과정에서 절대적인 시간이 흘러갔지만, AI 입장에서는 그 시간을 살지 않았다. 그래서 그들의 시간은 수직으로 치솟는다. 그들에게는 '사건', 이벤트 로그만 있다. 그런데 오히려 통찰이나 직관은 시간에 기반해 살아야만 하는 인간만이 수행한다. 아니 사실 직관이라는 것이 인간의 감관에 기초하는 것이니 당연한 말인지도 모른다. 

신뢰의 경계를 찾다

여러 부분에서 도구로서 AI의 도움을 받고 있다. 사람이 해야 하는 일에 들어가는 시간과 노력을 아낀다는 점에서 매우 뛰어나고 또 유용하다. 마치 과거 미국에서 자동차가 '신체의 연장'이라고 여겨졌듯이, AI는 '지식의 연장'쯤 되려나? 둘 다 빠르다는 공통점이 있다. 하지만 이번 일로 AI도 실수한다는 걸 직접 경험했다. AI는 배운 데이터로만 답하려 하고, 그 한계가 뚜렷했다. 한번 호되게 당하고 나니, 이제 "여기까지는 믿고, 여기부터는 의심해야지"라는 기준이 생겼다.

AI 시대의 배움

AI는 강력한 도구다. 하지만 여전히 인간의 생존 본능에 기반한 직관은 학습할 수 없다. "아닌데, 이거 이러면 안 될 거 같은데..." 이런 생각. AI는 생존 본능을 모른다. 말로는 직관과 본능을 이야기 하지만 그건 그냥 "데이터"일 뿐이다. 데이터를 분석하고 패턴을 파악하는 AI의 능력은 놀랍지만, 맥락을 이해하고 창의적인 전략을 수립하는 것은 아직 불가능한 인간만의 영역이다.

 

AI는 감관, 즉 '몸'이 없다. (최근에는 몸을 만들어 준다거나, 가상 공간에서 활동하게 한다는데, 그게 과연 진정한 경험일까? 프로그램에게는 생존의 위험이 없는데?)

오늘 ChatGPT와의 경험은 최신 기술을 활용하되, 그것에 전적으로 의존하지 않고 항상 비판적 사고를 유지해야 함을 상기시켰다.

앞으로

AI는 계속 쓸 거다. 그런데 좀 더 현명하게 써야겠다. AI가 하는 말을 무조건 믿기보다는 오류를 검증하고, 필요하면 과감히 다른 방법을 시도해야겠다.

사실 블로그에 쓸 게 없어서 쓰고 있다. 이러다 일기장이 되는 거 아닌가 싶다. 어쨌든 오늘의 경험을 기록해 두자. 내가 늦게 경험한 거고, 나만 이러는 건 아닐 테니까. 근데 확실한 건, AI를 도입하면 모든 문제가 해결 가능할 거라 생각하는 단순한 사고 방식이, 한번 호되게 당하고 나면 금방 사라질 거라는 사실.

결국 기술과 사람 사이의 균형을 찾는 게 중요하다. 새로운 도구에 열려있되, 직관과 판단력을 잃지 않는 것. 그게 중요하다.