Edge Computing과 서버리스 환경 | 매거진에 참여하세요

인사이트/로그개발 관련
작성일 : 25.05.29

Edge Computing과 서버리스 환경

#엣지컴퓨팅 #서버리스 #경량화 #빠른응답 #로컬화 #데이터처리속도 #데이터저장위치

👉 본문을 50%이상을 읽으면 '여기까지다' 퀘스트가 완료됩니다(로그인 필수)

클라우드 컴퓨팅은 이제 인터넷 인프라의 표준으로 자리 잡아 왔습니다.

아마존 웹서비스(AWS), 마이크로소프트 애저(Azure), 구글 클라우드 플랫폼(GCP) 등 주요 클라우드 제공업체들은

대규모 데이터센터와 탄탄한 글로벌 인프라를 바탕으로 수많은 기업의 백엔드를 책임지고 있습니다.

하지만 이제 우리는 새로운 전환점에 도달하고 있습니다. AI, IoT, 5G, 자율주행, AR/VR 등 신기술의 대두로 인해

더 빠른 응답성, 더 높은 개인화, 더 강력한 프라이버시 보장을 요구하는 시대가 도래한 것입니다.

이러한 흐름 속에서 주목받고 있는 두 가지 아키텍처가 있습니다.

바로 Edge Computing(에지 컴퓨팅)Serverless AI(서버리스 AI)입니다.

이 글에서는 이 두 트렌드를 중심으로 개념, 현재 동향, 주요 기술, 개발자에게 어떤 의미가 있는지를 깊이 있게 살펴보겠습니다.

Edge Computing이란?

Edge Computing(에지 컴퓨팅)은,

기존의 중앙 집중형 아키텍처에 대한 대안입니다.

기존에는 모든 데이터를 클라우드나 데이터센터로 보내 처리한 후, 그 결과를 사용자에게 전달하는 방식이 일반적이었습니다.

하지만 이제는 데이터를 생성한 곳 근처, 즉 '에지(Edge)'에서 처리하는 방식이 점점 보편화되고 있습니다.

왜 Edge인가?

다음은 에지 컴퓨팅이 필요한 이유들입니다:

  • - 지연(latency) 최소화:

  • 클라우드까지 왕복하는 시간을 줄이고, 엣지에서 즉시 처리함으로써 실시간 반응이 가능해집니다.

  • - 네트워크 비용 절감:

  • 모든 데이터를 클라우드로 보내지 않아도 되므로 전송 비용이 줄어듭니다.

  • - 프라이버시 및 보안 강화:

  • 민감한 데이터를 로컬에서 처리함으로써 외부 노출 가능성을 줄일 수 있습니다.

  • - 분산형 인프라에 대한 요구 증가:

  • 자율주행, 스마트시티, 제조 공정 자동화 같은 환경에서는 분산 처리 능력이 필수적입니다.

Edge 컴퓨팅의 핵심 구성 요소

1. Edge Node (엣지 노드)

  • 의미: 사용자 근처에 물리적으로 위치한 소형 서버, 장비, 게이트웨이 등

  • 역할: 데이터 수집, 전처리, 추론, 간단한 저장 등

2. CDN 진화형 엣지 (Cloudflare, Akamai 등)

  • CDN(Content Delivery Network)이 단순히 정적 파일을 전달하는 걸 넘어서, 이제는 코드를 실행할 수 있음

  • Cloudflare Workers, Akamai EdgeWorkers 등은 전 세계에 분산된 POP(Points of Presence)에서 코드를 실행

  1. - Cloudflare Workers: WASM 기반의 경량 JavaScript 코드를 엣지에서 실행

  2. - Akamai EdgeWorkers: 퍼포먼스 최적화를 위한 커스텀 엣지 기능 제공

3. WebAssembly (WASM)

  • 엣지에서 빠르게 실행할 수 있는 경량 실행 포맷

  • 브라우저용으로 만들어졌지만, 서버/엣지에서도 빠르고 안전하게 실행 가능

  • Sandbox 환경에서 작동하므로 보안에도 유리

4. AI 추론 엔진의 경량화 (ONNX, TensorRT, TFLite)

  • 엣지에서 AI 추론을 수행하려면 가벼운 모델경량 실행엔진이 필요함

  • - ONNX Runtime: 다양한 프레임워크에서 변환 가능

    • - TensorFlow Lite: 모바일/IoT에 최적화

    • - TensorRT: NVIDIA 기반 GPU 최적화

    • - OpenVINO: Intel 하드웨어 최적화

5. MQTT, CoAP 등 경량 메시징 프로토콜

  • Edge Node는 보통 실시간 센서 데이터를 다루므로, HTTP는 과합니다.

  • 대신 MQTT 같은 경량 메시징 프로토콜 사용

  • 빠르고 신뢰성 있는 양방향 통신 제공

Serverless AI란?

이제 AI의 위상은 더 이상 특별한 기술이 아닙니다. 검색, 챗봇, 추천, 음성 인식 등 일상 서비스에 AI는 이미 깊숙이 통합되어 있습니다.

하지만 AI를 운영하는 데에는 여전히 높은 비용과 복잡한 인프라 구성이 필요한 것이 현실입니다.

Serverless AI는 이러한 문제를 해결하기 위해 등장한 아키텍처입니다.

서버리스 컴퓨팅(FaaS: Function as a Service)와 AI 추론을 결합하여,

개발자가 모델이나 추론 로직에만 집중하고 인프라 운영은 클라우드에게 맡길 수 있도록 합니다.

  • - 인프라 관리 불필요: 모델 호스팅, 스케일링, 로드밸런싱 등은 모두 클라우드가 처리

  • - 자동 확장: 사용량이 많아질수록 자동으로 리소스를 할당

  • - 비용 효율성: 사용한 만큼만 비용을 지불

  • - 빠른 배포: 코드만 작성하면 빠르게 전 세계로 확산 가능

이 둘의 만남: Edge + Serverless + AI

이제 진짜 흥미로운 부분입니다. Edge 환경에서 AI 추론을 Serverless 방식으로 처리하면 어떤 일이 벌어질까요?

핵심 장점

  • - 초저지연 추론: 예를 들어 얼굴 인식을 30ms 내로 처리 가능

  • - 글로벌 사용자 대응: 전 세계 사용자에게 <100ms 응답 시간 제공

  • - GPU 자원을 온디맨드로 활용: 필요할 때만 GPU를 사용, 비용 최적화

  • - 개발과 배포 단순화: 복잡한 클러스터 관리나 컨테이너 오케스트레이션 없이도 모델 운영 가능

대표 플랫폼들

플랫폼

설명

Cloudflare Workers AI

LLM inference를 엣지에서 제공, WASM 기반

Vercel AI SDK

Next.js 기반, LLM 호출 최적화

Modal, Baseten

모델 서빙을 서버리스 방식으로 처리

Hugging Face Inference Endpoints

모델 추론을 REST API로 제공 (서버리스 유사 방식)

사용 사례 예시

글로벌 사용자 대상 챗봇

  • ChatGPT 스타일 챗봇을 Cloudflare Workers AI로 엣지에 배치

  • 미국, 유럽, 한국 사용자 모두에게 <100ms 응답 속도

모바일 앱에서 프라이버시 중심 얼굴 인식

  • 사진은 서버로 전송하지 않고 디바이스 가까운 엣지 노드에서 처리

  • 데이터 유출 걱정 없이 보안 강화

마이크로 AI 기능 배포

  • 버튼 클릭 시, 특정 LLM 프롬프트 실행

  • 서버리스 함수로 바로 추론 결과 응답

개발자 관점에서는?!

장점

  • - 인프라 구성의 단순화: 더 적은 코드로 더 많은 기능을 구현

  • - 지연시간 극복: 사용자가 체감할 수 있는 속도 향상

  • - 글로벌 확장성: 별도 리전 설정 없이 글로벌 대응 가능

  • - 추론 자원의 유연성: 모델별, 기능별로 독립적이고 분산된 추론 수행 가능

도전 과제

  • - Cold Start: 처음 호출 시 지연이 발생할 수 있음

  • - 디버깅 복잡성: 로컬 환경과 엣지 환경이 다르기 때문에 문제 재현이 어려움

  • - 제한된 리소스: 엣지는 클라우드만큼 큰 메모리나 GPU 파워를 제공하지 않음

  • - 호환성 문제: 특정 플랫폼에서 일부 언어나 라이브러리 미지원 가능

그럼에도 불구하고,

Edge ComputingServerless AI는 이제 더 이상 개념이 아니라 실전에서 쓰이고 있는 기술입니다.

AI 기능이 우리 서비스에 “자연스럽게” 녹아드는 시대가 오고 있습니다.

이제 중요한 건:
“당신의 AI는 얼마나 빠르게, 얼마나 가볍게, 얼마나 똑똑하게 배포되고 있나요?”

개발자에게 이 둘은 선택이 아닌 필수가 되어가고 있습니다.
앞으로 더 많은 도구, 더 많은 추상화가 이 세계를 편하게 만들겠지만, 지금이 바로 그 기반을 이해하고 선점할 시점입니다.