지난주 금요일 밤, 사이드 프로젝트의 인증 로직을 Claude에게 맡기고 있었습니다. Supabase 익명 인증에서 OAuth로 전환하는 부분이었는데, AI가 생성한 코드가 깔끔하게 돌아가길래 "오, 역시" 하면서 다음 작업으로 넘어갔습니다. 그런데 이틀 뒤, 익명 사용자의 데이터가 전환 후에 사라지는 버그가 터졌습니다. linkIdentity() 호출 시점이 잘못됐던 거죠. AI가 만든 코드를 제가 제대로 이해하지 않고 넘어간 대가였습니다.
Photo by
- Daniil Komov on
- Unsplash | AI 시대, 개발자의 학습 환경은 달라지고 있다
그 버그를 고치면서 문득 생각했습니다. AI 도구가 좋아질수록, 저는 점점 더 '왜 이렇게 동작하는지'를 신경 쓰지 않게 되는 것 같다고. 마침 그날 Stack Overflow 블로그에 올라온 글 제목이 눈에 들어왔습니다. To live in an AI world, knowing is half the battle. AI 세상에서 살려면, 아는 것이 절반이라고.
타이밍이 묘했습니다.
'Human Agency'라는 화두: 기술을 이해해야 주체가 된다
이 글은 Microsoft Technical Fellow인 Marcus Fontoura와의 대담입니다. 그가 최근 낸 책 Human Agency in the Digital World의 핵심 메시지는 간단합니다.
"기술이 어떻게 작동하는지 전혀 모르면, 자신이 어떤 영향력을 행사할 수 있다고 느끼기 정말 어렵다." Marcus Fontoura
솔직히 처음엔 "또 추상적인 얘기겠지" 싶었습니다. 근데 읽다 보니 꽤 와닿는 부분이 있었어요. Fontoura는 소셜 미디어 피드 알고리즘, 검색 랭킹, AI 시스템 같은 것들이 마치 자연법칙처럼 느껴지는 현상을 지적합니다. 하지만 이것들은 전부 사람이 만든 시스템이고, 사람이 바꿀 수 있다는 거죠.
"컴퓨터는 그냥 함수를 빠르게 계산할 뿐입니다. 나머지는 전부 우리 인간이 활용하는 것이죠."
이 말이 개발자한테 특히 의미 있는 이유가 있습니다. 우리는 AI 도구의 '사용자'이면서 동시에 '만드는 사람'이니까요. AI가 생성한 코드를 그냥 복사-붙여넣기하는 개발자와, 그 코드가 왜 그렇게 작동하는지 이해하고 수정할 수 있는 개발자 사이의 격차는 갈수록 벌어질 겁니다.
이건 이전에 AI 신약이 임상 3상까지 왔다 글에서도 비슷한 이야기를 했었는데요. AI가 특정 영역에 깊이 들어올수록, 그 영역의 전문가가 오히려 더 중요해진다는 역설 말입니다.
숫자가 말하는 불편한 진실: 84%가 쓰지만 46%는 못 믿는다
Photo by
- ZHENYU LUO on
- Unsplash | 데이터가 말해주는 AI 도구 신뢰도의 역설
Stack Overflow가 2025 개발자 설문을 통해 공개한 데이터는 꽤 흥미로운 그림을 보여줍니다.
지표 수치 전년 대비 AI 도구 사용률 84% (76% 84%) 매일 AI 도구 사용 51% AI에 긍정적 인식 60% (70%+ 60%) AI 출력 신뢰 33% AI 출력 불신 46% AI 도구 학습 (커리어 목적) 36% 신규 조사 한 문장으로 요약하면: 더 많이 쓰는데, 덜 믿는다.
이게 모순처럼 보이지만, 실제로 현장에서 AI 도구를 매일 쓰는 개발자라면 공감할 겁니다. 저도 Claude와 Cursor를 거의 매일 씁니다. 근데 AI가 생성한 코드를 100% 신뢰하느냐고 물으면... 솔직히 아닙니다. 특히 엣지 케이스 처리나 비즈니스 로직이 복잡하게 얽힌 부분에서는 반드시 직접 읽고 이해한 후에 머지합니다.
재밌는 건 AI 에이전트 도입 현황입니다. 개발자의 52%가 에이전트를 아예 사용하지 않거나 단순한 AI 도구에 머물고 있고, 38%는 도입 계획조차 없다고 답했습니다 (2025년 12월 기준, Stack Overflow 공식 발표). 에이전틱 AI가 대세라는 업계 분위기와는 사뭇 다른 온도감이죠.
개발자 커뮤니티는 어떻게 반응하고 있나
Photo by
- Vitaly Gariev on
- Unsplash | 개발자 커뮤니티의 AI 학습 논쟁은 계속된다
세계경제포럼(WEF)이 2026년 1월에 발표한 보고서에 따르면, 개발자의 65%가 2026년에 자신의 역할이 재정의될 것으로 예상하고 있습니다. 루틴한 코딩에서 아키텍처, 통합, AI 기반 의사결정 쪽으로 무게중심이 이동한다는 거죠.
GeekNews나 해커뉴스 댓글들을 보면, 대략 세 부류로 나뉩니다.
"AI 덕분에 10배 생산적" 파: 주로 시니어 개발자들이 많습니다. 이미 기본기가 탄탄하니까 AI를 증폭기로 활용하는 거죠. "보일러플레이트를 AI가 처리하니 설계에 집중할 수 있다"는 의견이 대표적입니다.
"AI가 내 실력을 퇴화시키는 것 같다" 파: 주니어~미드레벨에서 많이 보이는 고민입니다. 이전에 NotebookLM 요약 글에서도 언급했듯이, AI 요약에 의존하다 보면 원본을 직접 읽는 능력이 줄어드는 것과 비슷한 맥락입니다.
"그냥 도구일 뿐, 과대평가 말자" 파: 가장 현실적인 입장이라고 생각합니다. 엑셀이 나왔다고 수학을 몰라도 되는 건 아니었듯이, AI 코딩 도구가 나왔다고 프로그래밍 원리를 몰라도 되는 건 아니라는 관점.
개인적으로 세 번째 입장에 가장 가깝습니다. 근데 솔직히 첫 번째와 두 번째 감정을 동시에 느끼는 날도 있어요. 아침에는 "AI 덕분에 3시간 일을 40분에 끝냈다!" 하다가, 저녁에는 "근데 이 코드가 정확히 왜 이렇게 동작하는 거지..." 하면서 찝찝해하는.
그래서 학습 전략을 어떻게 바꿔야 할까
Fontoura의 메시지와 설문 데이터를 종합하면, AI 시대 개발자 학습에 대한 힌트가 보입니다.
1. "왜"를 먼저, "어떻게"는 AI에게
예전에는 "React에서 상태 관리 어떻게 하지?" 공식 문서 튜토리얼 직접 구현 순서였습니다. 지금은 AI에게 바로 물어보면 동작하는 코드가 나옵니다. 문제는 그 코드가 왜 그렇게 작동하는지 모르면, 버그가 나왔을 때 속수무책이라는 겁니다.
// AI가 생성한 코드 - "동작은 하는데 왜?" const [state, setState] = useState(() => { const saved = localStorage.getItem('key'); return saved ? JSON.parse(saved) : defaultValue; }); // 이걸 이해하려면 알아야 하는 것들: // 1. useState의 lazy initializer 패턴 (왜 함수를 넘기나?) // 2. SSR 환경에서 localStorage 접근 문제 // 3. JSON.parse가 실패할 수 있는 경우 // AI한테 "이 코드에서 발생할 수 있는 문제점 3가지 알려줘" 라고 물어보는 습관 제가 요즘 실천하는 방식은 이렇습니다. AI가 코드를 생성하면 바로 쓰지 않고, "이 코드에서 잠재적 문제점을 3가지 알려줘"라고 한 번 더 물어봅니다. 이 과정에서 원리를 자연스럽게 학습하게 됩니다.
2. T자형에서 (파이)자형으로
개발자의 33%가 GenAI와 AI/ML을 최우선 학습 대상으로 꼽았습니다 (Computerworld, 2026년 1월 기준). 하지만 동시에 "판단력, 협업, 리더십"도 핵심 역량으로 부상하고 있습니다.
T자형 인재(한 분야 깊이 + 넓은 기본기)에서, 두 개의 깊은 축을 가진 자형으로 진화하라는 이야기인데요. 예를 들면 "프론트엔드 전문가 + AI/ML 활용 능력" 같은 조합이죠. GPT-5.2의 40만 토큰 컨텍스트 글에서도 다뤘듯이, 긴 컨텍스트를 다루는 능력 자체가 새로운 스킬이 되고 있습니다.
파일럿이냐 승객이냐, 선택은 지금
Fontoura는 자신의 책을 "AI 시대의 자기계발서"라고 소개합니다. 기술 혁명 속에서 우리가 조종사(pilot)가 될 것인지, 승객(passenger)이 될 것인지를 선택하자는 메시지죠.
솔직히 저도 가끔 승객석에 앉아 있는 것 같을 때가 있습니다. AI가 써준 코드를 대충 리뷰하고, AI가 요약해준 문서로 공부를 대체하고. 편하긴 한데, 뭔가 조금씩 빈 곳이 생기는 느낌?
제가 내린 결론은 이렇습니다.
AI 도구를 더 잘 쓰려면, AI가 하는 일의 원리를 이해해야 한다. 역설적이지만, Stack Overflow 설문의 "더 많이 쓰는데 덜 믿는다" 현상이 바로 이 격차에서 온다고 봅니다. 원리를 아는 사람은 AI의 출력을 검증할 수 있고, 모르는 사람은 불안한 채로 쓸 수밖에 없으니까요.
구체적 액션 아이템 두 가지를 제안합니다:
"AI에게 물어보기 전에 30초 먼저 생각하기" 습관. 문제를 AI에게 바로 던지기 전에, "이건 어떤 종류의 문제이고 어디서 답을 찾아야 하지?" 정도만 스스로 정리합니다. 이 30초가 쌓이면 문제 분해 능력이 유지됩니다. 주 1회 "AI 없이 코딩" 시간 확보. 자전거 타는 법을 잊지 않으려면 가끔 타야 하듯이, 순수하게 공식 문서만 보고 구현하는 시간을 일부러 만듭니다. 저는 금요일 오후에 30분 정도 이걸 하고 있는데, 의외로 재밌습니다. 기술이 좋든 나쁘든은 기술 자체가 아니라 쓰는 사람에게 달려 있다는 Fontoura의 말에 동의합니다. AI 도구가 더 강력해질수록, "아는 것이 절반"이라는 이 단순한 진리가 더 무겁게 다가옵니다.
TMI인데, 서두에서 말한 그 linkIdentity() 버그요. 결국 Supabase 공식 문서를 처음부터 다시 읽고 나서야 원인을 찾았습니다. AI한테 물어봤으면 더 빨랐을 수도 있겠죠. 근데 그 과정에서 익명 인증의 내부 동작을 확실히 이해하게 됐고, 이후로 비슷한 버그는 한 번도 안 났습니다. 아는 것이 절반이라더니, 진짜 그랬습니다.
참고 자료:
-
To live in an AI world, knowing is half the battle Stack Overflow Blog (2026.02.27)
-
Software developers are the vanguard of how AI is redefining work WEF (2026.01)
-
What AI skills job seekers need to develop in 2026 Computerworld 함께 읽으면 좋은 글:
-
AI 신약이 임상 3상까지 왔다: 바이오AI 교차점에서 개발자에게 열리는 새 커리어 - AI가 특정 분야에 깊이 들어올 때 전문가의 역할
-
GPT-5.2의 40만 토큰 컨텍스트 시대 - AI 도구의 능력이 확장될 때 개발자가 알아야 할 것