Physical AIPhase 9VLA
VLA 파이프라인 시뮬레이터
Vision-Language-Action 모델의 추론 과정을 단계별로 시각화합니다. 센서 입력부터 최종 주행 액션까지의 전체 파이프라인을 체험하세요.
📡
센서 퓨전 이해
카메라, LiDAR, 레이더 데이터 통합
🧠
VLA 아키텍처
Vision → Language → Action 흐름
⚡
실시간 추론
100ms 이내 의사결정 과정
🛡️
안전 시스템
Dual Stack (AI + Rule-based) 이해
VLA Pipeline 로딩 중...
💡 VLA 모델이란?
Vision-Language-Action (VLA) 모델은 시각 정보(Vision)를 언어적으로 이해(Language)하고, 이를 바탕으로 물리적 행동(Action)을 결정하는 멀티모달 AI 모델입니다. 자율주행, 로봇 제어 등 Physical AI의 핵심 기술입니다.
🎯 FDE 커리큘럼 연계
이 시뮬레이터는 FDE Academy Physical AI 스페셜 과정의 실습 도구입니다. 자율주행 시나리오를 통해 VLA 파이프라인의 각 단계를 직접 체험하고 센서 퓨전과 안전 시스템의 원리를 학습합니다.
🔧 VLA 파이프라인 구조
👁️
Vision Encoder
카메라, LiDAR, 레이더 등 멀티모달 센서 데이터를 통합하여 주변 환경을 3D로 인식합니다. 객체 감지, 거리 추정, 장면 분류를 수행합니다.
🧠
Language Model
시각 정보를 언어적으로 해석하여 상황을 판단합니다. 교통 법규, 안전 원칙을 참조하여 최적의 의사결정을 내립니다.
🎮
Action Decoder
언어 모델의 판단을 조향, 가속, 제동 등 실제 물리적 제어 신호로 변환합니다. 안전 시스템과 연동하여 최종 액션을 실행합니다.