AI 자동화가 정작 현장까지 닿지 못하는 이유
AI 자동화 소프트웨어는 무서운 속도로 쏟아져 나오고 있지만, 막상 SW 개발 분야를 제외한 다른 산업군에서는 이런 변화를 체감하기 어렵습니다. 제조업이나 전통적인 비즈니스 영역에 계신 분들과 이야기를 나눠보니 패턴이 뚜렷하게 보이더군요. AI의 역량과 실제 도입 사이에는 엄청난 괴리가 존재합니다. 그 이유는 크게 세 가지 핵심 문제로 정리할 수 있습니다.
Digital Transformation이 먼저입니다
경영진은 AI 전환(AX)에 열광하지만, 정작 기본적인 디지털 전환(DX)조차 마무리되지 않은 조직이 태반입니다. AI는 데이터를 먹고 자랍니다. 만약 비즈니스 프로세스가 종이 문서나 담당자의 머릿속, 혹은 서로 단절된 사일로 안에만 존재한다면 AI가 비즈니스를 도울 방법은 없습니다.
전체 업무 흐름이 실물 서류로만 관리되거나, 공장에 센서와 카메라는 달아뒀지만 수집된 데이터가 정작 데이터베이스(Database)에는 쌓이지 않는 경우, 회의를 해도 기록이나 액션 아이템이 남지 않는 상황들… 여전히 많은 산업 현장에서 흔히 볼 수 있는 풍경입니다.
물론 완벽한 DX 인프라를 구축하려면 막대한 초기 투자가 필요합니다. 무작정 돈을 쓰라거나 불필요한 비용을 지출하라는 이야기가 아닙니다. 사실 전면적인 디지털 시스템 구축 없이도 가벼운 자동화는 충분히 가능하며, 거기서부터 시작하는 게 합리적입니다. 비즈니스의 본질은 결국 자원의 전략적 배분이거든요. 현재 상황에서 가장 큰 임팩트를 낼 수 있는 곳에 집중해야 합니다.
AI도 사람과 마찬가지로, 접근할 수 있는 정보의 질과 수행할 수 있는 행동의 범위에 따라 성과가 결정됩니다. 제대로 된 인프라 없이 AI를 도입하면 성능이 저조할 수밖에 없습니다. 진짜 위험한 건 준비 없이 덤벼들었다가 실패한 뒤, 원인이 부실한 기반에 있었음에도 “AI는 쓸모없다"라고 섣불리 결론 내리는 것입니다.
인터페이스라는 장벽
실제 산업 현장은 수많은 데이터 소스가 존재하고, 각 분야마다 독자적인 도메인 맥락(Semantics)이 얽혀 있습니다. 이건 단순히 “이 테이블에 뭐가 저장되어 있나” 수준의 문제가 아닙니다. 데이터 포인트 간의 유기적인 관계, 그리고 특정 비즈니스 상황에서만 의미가 통하는 커스텀 지표들이 복잡하게 얽혀 있다는 뜻이죠.
이런 의미들을 매핑하는 게 얼마나 골치 아픈 작업인지 한번 따져볼까요?
- 우리 조직에서 ‘성능(Performance)‘의 정의는 무엇인가요?
- 중요한 KPI는 무엇이고, 정확한 산출 로직은 어떻게 되나요?
- 매출 기여도는 어떤 기준으로 배분하나요?
- 고객과 판매자의 관계는 어떤 테이블들을 연결해야 나오나요?
제조업 현장으로 가면 질문의 디테일이 훨씬 깊어집니다.
- 어떤 센서가 어느 설비에 부착되어 있나요?
- 그 센서가 뱉어내는 데이터는 물리적으로 어디에 저장되나요?
- 수치 데이터 중 위험 징후(Risk Condition)는 어떤 조건으로 판단하나요?
- 이 카메라는 생산 라인의 어느 구간을 감시하고 있나요?
- 방독면 착용이 ‘예외 없이’ 필수인 공정은 어디인가요?
데이터와 도메인 지식을 연결하고 그 의미를 정의하는 건 실로 엄청나게 복잡한 작업입니다. BI 도구들이 그렇게 넘쳐나는데도 소프트웨어 개발 분야를 제외하면 AI가 산업 전반에 깊이 침투하지 못한 이유가 바로 여기에 있죠. 핵심은 도메인 전문가가 직접 이 연결 고리를 설정해야 한다는 겁니다. 즉, 데이터 소스에 충분한 맥락적 의미를 부여해 줘야 한다는 것이죠. 현장 전문가의 지식(Domain Knowledge) 없이는 데이터는 그저 의미 없는 숫자와 텍스트 쪼가리에 불과하니까요.
물론 이를 위한 도구들은 이미 존재합니다. DataHub는 데이터가 어디에 있는지 관리하고, OpenLineage는 데이터가 시스템을 어떻게 타고 흐르는지 보여줍니다. dbt는 원시 데이터를 의미 있는 정보로 가공하고, Airflow는 워크플로우를 조율하죠. Tableau나 Superset 같은 도구는 카탈로그와 리니지를 기반으로 지표를 시각화해 줍니다.
하지만 소프트웨어 지식이 없는 분들이 이 도구들을 정말 효과적으로 쓸 수 있을까요?
예전에 여러 소스의 데이터를 긁어와서 Elasticsearch에 통합하고, PM이나 디자이너분들이 Kibana로 조회할 수 있도록 시스템을 구축한 적이 있습니다. 교육 세션도 열고, 문서화도 공들여서 했죠. 결과는 어땠을까요? 결국 쓰는 사람 한 줌만 남더군요.
수기 엑셀 시트로 꼼꼼하게 품질 관리를 해오신 생산 현장의 베테랑 전문가를 떠올려 보세요. 이분들이 교육 좀 받는다고 갑자기 저 복잡한 소프트웨어 생태계를 흡수해서 바로 생산성을 낼 수 있을까요? 솔직하고 냉정하게 답하자면, 보통은 ‘아니요’입니다.
하나의 미래: 대화형 데이터 관리
데이터 카탈로그 구성을 ‘대화’를 통해 해결하는 방식이 미래의 한 축이 될 수 있습니다. 우리는 이미 ChatGPT나 Gemini 같은 채팅 인터페이스를 자연스럽게 사용하고 있잖아요? 이 익숙한 인터페이스를 통해 데이터 간의 관계를 확인하고, 연결 고리를 추가하거나 삭제, 수정할 수 있다면 어떨까요?
AI 에이전트가 데이터 카탈로그나 Lineage 시스템과 직접 상호작용하는 그림을 그려볼 수 있습니다. 사용자의 요청에 따라 메타데이터와 의미(semantic) 정보를 자동으로 수정하고, 중복을 피하면서 데이터의 일관성까지 유지해 주는 것이죠.
물론 이 시스템을 신뢰할 수 있는 수준으로 구축하는 건 정말 어려운 일입니다. 하지만 이걸 제대로 해내는 곳이 나온다면 그 가치는 엄청날 겁니다. 도메인 지식을 저장하고 관리하는 것부터 정보를 조회하고 인사이트를 도출하는 것까지, AI 에이전트가 단일 대화형 인터페이스 안에서 모두 처리해 주는 셈이니까요.
또 하나의 미래: 현장형 개발자
메타데이터와 의미 정보는 시스템의 급소와도 같습니다. 만약 악의적인 사용자가 이를 조작하거나, AI가 오작동하여 데이터를 교묘하게 오염시킨다면 어떻게 될까요? 아무도 눈치채지 못하는 사이에 비즈니스가 내부에서부터 무너져 내릴 수 있습니다. 아주 작은 조작만으로도 매출이 곤두박질치거나, 성과 지표가 엉터리로 둔갑할 수 있으니까요.
과연 전통 산업의 현장 실무자들이 이런 막중한 책임을 현실적으로 감당할 수 있을까요? 저는 개발자를 해당 산업 현장에 직접 ‘임베디드(embeded)’ 시키는 것이 대안이 될 수 있다고 봅니다. 도메인 전문가에게 코딩을 가르치는 대신, 반대로 소프트웨어 전문가에게 도메인 지식을 학습시키는 방식이죠.
도메인을 익힌 개발자는 시스템을 구축하는 과정에서 잠재적인 리스크, 성능 병목, 보안 취약점을 감지해낼 수도 있습니다. 새로운 기술 패러다임이 등장해 시스템 마이그레이션이 필요할 때도, 이들은 신기술을 빠르게 습득하여 도메인 지식을 효율적으로 이식할 수 있습니다. 도메인 전문가와 현장에 밀착된 소프트웨어 전문가가 만드는 시너지는 시스템의 복잡도 문제와 데이터 무결성 문제를 동시에 해결하는 열쇠가 될 수 있습니다.
컨텍스트의 공백: 내부 데이터를 넘어
비즈니스는 진공 상태에서 존재하지 않는, 매우 섬세하고 복합적인 유기체와 같다. 내부 데이터 인프라가 아무리 탄탄하더라도 내부 신호에만 의존하는 것은 결국 ‘반쪽짜리 판단’에 불과하며, 이는 종종 편향되거나 잘못된 결론으로 이어진다.
가전제품 대규모 할인 프로모션을 진행 중인 이커머스 플랫폼을 예로 들어보자. 프로모션 기간에 갑자기 디저트 매출이 급증한다면, 내부 로그만 학습한 AI는 “냉장고를 구매하는 사람들은 단것을 찾는 경향이 있다"는 식의 기괴한 상관관계를 도출할지 모른다. 하지만 실상은 소셜 미디어에서 ‘두바이 초콜릿’ 열풍과 같은 외부 트렌드가 발생했고, 해당 제품이 품절되자 수요가 다른 대체제로 옮겨간 것일 수 있다.
도메인 전문가는 이러한 이상치를 직관적으로 파악할 수 있지만, 비즈니스 규모가 커질수록 사람이 이 복잡한 상관관계를 일일이 보정하는 것은 불가능에 가깝다. 이러한 맥락의 부재는 사용자가 ‘AI 피로감’을 느끼는 결정적인 원인이 된다. 시스템이 기술적으로는 우수할지 몰라도, 현실 세계의 흐름에 대해서는 근본적으로 ‘무능하다’고 느끼게 되기 때문이다. 결국 진정한 의미의 AI 인텔리전스를 달성하기 위해서는 내부 데이터의 정제를 넘어 뉴스, 트렌드, 글로벌 이벤트와 같은 외부 정보를 데이터 리니지(Data Lineage) 자체에 유기적으로 통합할 수 있어야 한다.
보안, 그리고 사람이라는 마지막 계층
보안 문제는 AI 도입을 가로막는 마지막이자 가장 높은 허들입니다. 대부분의 개발자는 편하게 빅테크 기업의 API를 끌어다 쓰지만, 반도체 제조처럼 보안이 생명인 분야는 사정이 다릅니다. 이런 곳에서는 산업 기밀 유출 리스크를 감당할 수 없거든요. 이들에게 ‘AI 도입’이란 단순히 서비스 구독 버튼을 누르는 게 아닙니다. 폐쇄적인 생태계를 유지하기 위해 자체 데이터 센터를 짓고, 전담 엔지니어링 팀을 꾸려야 한다는 뜻이죠.
비단 하드웨어 업계만의 이야기는 아닙니다. 소프트웨어 회사들도 보안 취약점이 급증하는 위기 상황에 직면해 있습니다. 폐쇄된 사내망 안에서만 AI를 쓴다면 안전하겠지만, 퍼블릭 웹에 노출되는 순간 언제든 공격을 받을 수 있습니다. 이런 환경에서 보안은 단순히 사용자 인터페이스단만 막는다고 해결될 일이 아닙니다. UI와 상호작용하는 내부 코어 로직과 인프라까지 빡빡하게, 그리고 선제적으로 관리해야 합니다. 전문가의 끊임없는 검토 없이 AI가 짜준 로직을 그대로 쓴다? 이건 해커들에게 “어서 털어가세요"라고 대문을 열어주는 꼴입니다.
한 번 배포하고 나면 신경 끄던 시대는 지났습니다. 보안 패치도 안 된 프레임워크 위에서 몇 년씩 서비스가 돌아가던 건 옛날 얘기죠. 비즈니스 연속성을 위해서라도 이제 상시 모니터링은 선택이 아닌 필수입니다. 이런 엄격한 보안 요구사항은 AI 도입 속도를 늦추는 무거운 짐이 되기도 합니다. 리스크가 큰 분야일수록 더더욱 그렇고요.
결론적으로, AI의 잠재력과 현업 도입 사이의 간극을 메우기 위해 필요한 건 단순히 ‘더 똑똑한 모델’이 아닙니다. 견고한 디지털 인프라, 철저한 보안 의식, 그리고 그 위에서 전문성을 발휘할 ‘인간’이 필요합니다. 기술은 이미 와 있습니다. 하지만 그 기술을 실제로 신뢰하고 쓸 수 있을 만큼 안전하게 만드는 것, 그게 진짜 어려운 숙제로 남아있는 셈이죠.