AI를 맹신하면 안 되는 이유 4가지

우리는 지난 6번의 포스팅을 통해 AI를 어떻게 '채용'하고, '협업'하며, '리드'할 수 있는지 배웠습니다. 이쯤 되면 AI가 못 하는 게 없어 보이고, 만능열쇠처럼 느껴질 수도 있습니다.
하지만 시리즈의 마지막인 오늘, 저는 찬물을 한 바가지 끼얹으려 합니다.
"AI를 믿지 마세요."
정확히 말하면, "검증하지 않은 AI의 결과물을 믿지 마세요."
AI는 세상에서 가장 똑똑한 박사이자, 동시에 가장 뻔뻔한 거짓말쟁이이기도 합니다. 오늘은 AI와 협업할 때 개발자가 반드시 경계해야 할 함정(Trap)과, 결코 넘겨주어서는 안 될 '책임'에 대해 이야기합니다.
1. 그럴싸한 거짓말: 할루시네이션(Hallucination)
LLM(거대언어모델)은 사실(Fact)을 검색하는 엔진이 아닙니다. 이전에 나온 단어를 바탕으로 "가장 확률적으로 적절한 다음 단어"를 생성하는 기계입니다. 그래서 AI는 모르는 것도 "모른다"고 하지 않고, 아주 자신감 넘치는 어조로 거짓말을 지어냅니다. 이를 할루시네이션(환각)이라고 합니다.
🚨 실제 위험 사례: 패키지 환각 (Package Hallucination)
개발자: "Node.js에서 이미지의 노이즈를 제거하는 라이브러리 추천해 줘."
개발자는 의심 없이 명령어를 복사해서 터미널에 입력합니다. 하지만 저런 패키지는 존재하지 않았습니다.
더 무서운 건, 해커들이 이 점을 악용한다는 사실입니다. 해커들은 AI가 자주 잘못 추천하는 가상의 패키지 이름으로 악성코드가 심긴 실제 패키지를 npm이나 PyPI에 등록해 둡니다.
✅ 대처법:
2. 보안: 당신의 비밀키를 공유하지 마세요
"이 코드 좀 디버깅 해줘."
급한 마음에 코드를 통째로 복사해서 AI에게 붙여넣습니다. 그런데 그 코드 상단에 AWS Secret Key나 DB 접속 비밀번호가 하드코딩 되어 있었다면?
당신은 방금 회사의 기밀 정보를 전 세계 공용 데이터베이스에 기부한 셈이 됩니다. AI 모델은 학습 데이터로 사용자의 대화 내용을 활용할 수 있으며(옵션에 따라 다름), 이 정보가 다른 사용자에게 유출될 가능성도 배제할 수 없습니다.
🔒 보안 수칙
3. "복붙 개발자"의 최후: 생각 근육의 퇴화
AI가 코드를 너무 잘 짜주다 보니, 어느새 코드를 '읽는' 과정조차 생략하고 '복사+붙여넣기'만 하는 자신을 발견하게 될지도 모릅니다.
"어쨌든 돌아가니까 된 거 아냐?"
아닙니다. AI가 작성한 코드를 이해하지 못하고 서비스에 반영하면, 나중에 문제가 터졌을 때 아무것도 수습할 수 없는 상태가 됩니다. 이를 '기술적 문맹(Technical Illiteracy)' 상태라고 부르고 싶습니다.
✅ 대처법:
4. 책임은 오직 인간의 몫이다
마지막으로 가장 중요한 이야기입니다.
AI가 짠 코드 때문에 서버가 다운되거나, 개인정보가 유출되었다고 가정해 봅시다.
시말서를 쓸 때 "ChatGPT가 이렇게 짜줬는데요?"라고 변명할 수 있을까요?
아뇨, 그 책임은 전적으로 '엔터(Enter)' 키를 누른 여러분에게 있습니다.
비행기 조종석에 앉아있는 기장(Pilot)은 바로 당신입니다. 부기장(Co-pilot)이 잘못된 경로를 제안했을 때, 그것을 거절하고 올바른 항로를 잡는 것은 기장의 의무입니다.
시리즈를 마치며: 우리는 '증폭'될 준비가 되었는가?
1부부터 7부까지, 우리는 개발자가 AI 시대를 살아가는 방법에 대해 이야기했습니다.
AI는 곱셈(*)입니다.
여러분의 실력이 0이라면, AI라는 도구를 곱해도 결과는 0입니다. (0 * 100 = 0)
하지만 여러분이 탄탄한 기본기와 도메인 지식(1)을 갖추고 있다면, AI는 여러분의 생산성을 100으로 만들어 줄 것입니다.
AI를 두려워하지도, 맹신하지도 마세요.
대신 가장 깐깐하게 부려먹는 직장 상사가 되십시오.
이제, 여러분만의 AI 부사수와 함께 위대한 제품을 만들러 갈 시간입니다.
Happy Coding with AI! 🚀