여러분은 AI가 실제로 움직이는 시대를 상상해 본 적이 있으신가요?
최근 CES를 통해 확인해볼 수 있었듯, 피지컬 AI는 차세대 핵심 산업으로 떠오르고 있습니다.
https://www.youtube.com/watch?v=lzPrUOEQxWw
CES 2026에서 휴머노이드 로봇과 자율 이동 로봇, 산업용 로봇 플랫폼 등이 전시의 중심을 차지하며 AI가 더 이상 화면 속에 머무르는 기술이 아니라 현실 세계에서 직접 움직이는 존재로 확장되고 있음을 실감나게 해주었습니다.
엔비디아의 CEO 젠슨 황 역시 CES 기조연설에서 AI가 이제 단순히 인식하고 생성하는 단계를 넘어 생각하고 계획하며 실제로 행동하는 단계로 진화하고 있다고 강조했습니다.

시장 전망 역시 이러한 흐름을 뒷받침합니다. 시장조사기관 Global Market Insights에 따르면 AI 기반 산업용 로봇 시장 규모는 2025년 약 168억 달러에서 2035년 약 333억 달러까지 성장할 것으로 전망되며, 연평균 약 7% 이상의 성장률이 예상됩니다. AI와 로봇이 점차 산업의 주요 자리를 차지할 것이라 예상할 수 있습니다.
흔히 AI를 떠올리면 ChatGPT나 Gemini와 같은 챗봇 형태를 생각하기 쉽습니다. 그러나 이제 AI는 단순히 질문에 답하는 기술을 넘어, 현실 세계에서 움직이고 행동을 수행하는 존재로 진화하고 있습니다. 그렇다면 이러한 변화의 중심에 있는 피지컬 AI란 정확히 무엇을 의미하는 기술일까요?
피지컬 AI는 말 그대로 물리적 세계에서 행동할 수 있는 인공지능을 의미합니다.

기존의 AI가 텍스트를 생성하거나 데이터를 분석하는 등 주로 디지털 환경에서 작동하는 기술이었다면, 피지컬 AI는 센서와 로봇 하드웨어를 통해 실제 우리 주변의 세계를 인식하고 물리적으로 움직이며 작업을 수행하는 AI를 가리킵니다. 즉, 기존의 AI가 데이터를 분석하고 답을 생성하는 생각하는 AI 였다면, 이제는 환경을 이해하고 실제 세계에서 움직이며 작업을 수행하는 행동하는 AI로 확장되고 있는 것입니다.

이러한 변화는 특히 로보틱스 산업에서 뚜렷하게 나타나고 있습니다.
기존 산업 현장에서 활용되던 로봇은 대부분 정해진 동작을 반복 수행하는 자동화 장비에 가까웠습니다. 하지만 피지컬 AI가 적용된 로봇은 카메라와 센서를 통해 주변 환경을 인식하고, AI 모델을 기반으로 상황을 판단한 뒤 스스로 행동을 결정할 수 있습니다.
예를 들어 테슬라의 휴머노이드 로봇 옵티머스(Optimus)처럼 물체를 인식하고 집어 옮기는 작업을 수행하는 로봇이나, OpenAI의 기술과 협력해 개발된 휴머노이드 로봇 ‘Figure 01’처럼 사람과 대화하며 작업을 수행하는 로봇등이 대표적인 사례입니다.

피지컬 AI는 다양한 기술의 결합으로 구현됩니다. 컴퓨터 비전 기술을 통해 주변 환경을 인식하고, 머신러닝과 딥러닝을 통해 상황에 맞는 행동을 학습합니다. 여기에 센서 융합, 모션 플래닝, 자율 제어 기술이 더해지면서 로봇은 복잡한 환경에서도 스스로 판단하고 움직일 수 있게 됩니다.
다만 이러한 피지컬 AI가 인간처럼 자연스럽게 움직이고 작업을 수행하기 위해서는 대량의 행동 데이터와 학습 과정이 필요합니다. 로봇이 물체를 집거나 공간을 이동하는 방식 등 다양한 행동을 반복적으로 학습해야 하기 때문입니다.