12. Teachable Machine 인식

그림1

이미지 참조 : Teachable Machine 인식

✅ Teachable Machine으로 배우는 딥러닝 인공지능

스케치 학습(Sketch Learning)은 아이가 반복해서 스케치북에 그림을 그리며, 눈으로 보고, 손으로 따라 그리며 직접적인 반복과 수정 과정이었다면, 티처블 머신 (Teachable Machine 학습)은 아이가 스케치북에 그림을 반복해서 그려보며 그림들의 차이를 스스로 관찰하고 그림 속의 규칙과 패턴을 찾으며 점점 더 정확하게 그리는 과정 입니다.

처음에는 구분이 어렵지만, 여러 번 보고 비교하며 점점 더 뚜렷한 특징을 익히게 됩니다. 인공지능에서 이야기 하는 딥러닝(Deep Learning) 모델도 이와 마찬가지로, 여러 장의 사진을 보고, 데이터를 반복 학습하면서 ‘구분하는 능력’을 키워갑니다.

또한, Teachable Machine은 사용자가 이미지, 소리, 포즈 등의 데이터를 직접 입력하고 학습시켜, 인공지능이 스스로 패턴을 인식할 수 있게 만드는 도구입니다. 복잡한 코딩 없이 인공지능의 핵심 개념인 ‘딥러닝’의 원리를 쉽게 체험할 수 있도록 돕습니다.

⚪ 딥러닝이란?

1. 사람의 뇌처럼 여러 층(Layer)의 신경망이 데이터를 분석하고,
2. 반복 학습을 통해 특징을 스스로 찾으며,
3. 점점 더 정확하게 ‘구분’하고 ‘판단’하게 되는 인공지능 기술입니다.

⚙️ Teachable Machine으로 배우는 딥러닝과 인공지능

Teachable Machine은 복잡한 프로그래밍 없이도 딥러닝 모델을 직접 만들고 실험해볼 수 있는 도구입니다.
이미지, 소리, 움직임 등 다양한 데이터를 이용해 인공지능이 어떻게 학습하고 인식하는지를 체험할 수 있게 도와줍니다.

● 반복 학습을 통해 컴퓨터가 스스로 규칙을 찾는 딥러닝의 핵심 원리를 직관적으로 이해할 수 있습니다.

● 입력(데이터)과 출력(분류 결과) 간의 관계를 모델이 스스로 학습한다는 점에서, 인간의 학습과 유사한 구조를 갖고 있다는 것을 경험할 수 있습니다.

● 실시간 인식 결과를 확인하며, 인공지능이 어떻게 판단하고 예측하는지를 시각적으로 체험할 수 있습니다.

이러한 과정을 통해, 딥러닝이 단순히 많은 데이터를 ‘암기’하는 것이 아니라, 그 속의 패턴을 스스로 분석하고 구분하는 능력을 기른다는 것을 배울 수 있습니다.
또한, 실제 자율주행, 얼굴 인식, 음성 인식 등 다양한 인공지능 기술의 작동 원리도 자연스럽게 이해할 수 있습니다.



1️⃣ 자율주행 자동차에서의 머신러닝 사례

1. 환경 인지와 상황 이해
- 자율주행차는 복합 센서 데이터를 딥러닝으로 융합해 3D 공간 내의 물체뿐 아니라 도로 환경 전체를 인식합니다.
- 예를 들어, 포인트 클라우드 데이터를 딥러닝으로 처리해 주변 사물들의 거리, 크기, 움직임을 정확히 판단하고, 도로 상황을 실시간으로 맥락적으로 이해합니다.
- 이는 단순 객체 인식을 넘어서 도로 위에서 벌어지는 상황 전체를 ‘이해’하는 단계로, 복잡한 교차로나 공사 구간에서 안전 운행에 필수적입니다.

2. 예측 기반 의사결정 강화
- 딥러닝은 주변 차량, 보행자, 심지어 날씨 변화까지 고려해 향후 상황을 예측합니다.
- 예컨대, 교차로에서 갑자기 튀어나오는 보행자를 미리 감지해 긴급 제동을 준비하거나, 앞 차량의 급정거를 예측해 부드럽게 감속합니다.
- 강화학습과 딥러닝 결합으로 복잡한 교통 상황에서 최적 경로와 행동을 실시간 결정하는 ‘지능형 의사결정 시스템’을 구축합니다.

3. 센서 결함 대응 및 이상 탐지
- 자율주행차에 장착된 다양한 센서들은 때때로 오작동하거나 외부 환경 요인에 의해 데이터가 왜곡됩니다.
- 딥러닝은 센서 간 데이터 불일치, 노이즈, 결측치를 자동으로 감지하고 보정하는 역할을 수행합니다.
- 이를 통해 센서 결함이 운전 판단에 미치는 영향을 최소화하며, 시스템의 신뢰성과 안전성을 극대화합니다.

4. 자연어 및 음성 기반 인터페이스
- 딥러닝을 활용해 운전자와 차량 간의 자연스러운 소통을 가능하게 합니다.
- 음성 인식, 명령어 이해, 그리고 대화형 AI로 차량 내 시스템을 제어하거나 운전 상황에 대한 피드백을 주고받습니다.
- 예를 들어, “다음 신호등에서 우회전해줘” 같은 자연어 명령을 이해하고 실행하거나, 비상 상황에서 음성으로 경고를 발신하는 기능 등이 있습니다.

5. 운전자 상태 모니터링 및 위험 감지
- 차량 내 카메라와 센서를 이용해 운전자의 졸음, 주의 산만, 피로도 등을 딥러닝으로 실시간 분석합니다.
- 얼굴 표정, 눈 깜빡임 빈도, 머리 움직임 등을 종합해 운전자의 상태를 파악하고, 위험 상황 발생 시 경고 또는 차량 제어 개입이 가능합니다.
- 이는 자율주행이 완전 자동화되지 않은 현재 단계에서 매우 중요한 안전 기능입니다.

🟩 자율주행자동차 딥러닝 핵심 원리와 적용

🧠 딥러닝 모델의 ‘공감 능력’ — 멀티모달 학습
1. 자율주행에서 딥러닝은 단일 이미지나 센서 신호에 의존하지 않고, 카메라, 라이다, 레이더 등 다양한 센서 데이터를 동시에 해석합니다.
2. 이를 ‘멀티모달 학습’이라 부르며, 서로 다른 센서 데이터를 통합해 더 정확하고 강건한 인식을 구현합니다.
3. 예를 들어, 안개 낀 날씨에는 라이다와 레이더 신호를 더 중시하고, 맑은 날엔 카메라 영상에 집중하는 식으로 상황별 가중치를 조절합니다.
4. 이렇게 센서별 장점을 살리고 약점을 보완하는 멀티모달 딥러닝은 자율주행 안전성을 크게 높입니다.

⚡ 실시간 성능을 위한 경량화와 하드웨어 협업
1. 자율주행차는 초고속 반응이 필수! 대형 딥러닝 모델을 바로 차량 내에서 돌리기 어렵기 때문에, 경량화와 전용 하드웨어 협업이 중요합니다.
2. 모델 압축, 양자화, 그리고 차량용 AI칩(예: NVIDIA Drive, Tesla FSD 컴퓨터) 최적화 덕분에 복잡한 딥러닝 추론을 실시간에 가깝게 수행할 수 있습니다.
3. 이 과정에서 ‘하드웨어 친화적 네트워크 구조’를 설계하는 것도 딥러닝 엔지니어의 핵심 역할입니다.

🔄 딥러닝 기반 적응형 인공지능: 변화하는 환경에 맞춘 지능형 대응
1. 자율주행차 주변 환경은 매우 동적이며, 도로 상황과 날씨가 끊임없이 변합니다. 2. 딥러닝 모델은 이러한 변화에 능동적으로 적응하기 위해 ‘적응형 딥러닝(Adaptive Deep Learning)’ 기법을 적용합니다. 3. 예를 들어, 딥러닝 신경망은 눈길, 빗길, 혹은 교통 체증 등 각기 다른 상황에 맞춰 내부 가중치나 활성화 함수를 조정하며, 상황별 최적화된 판단을 내릴 수 있습니다. 4. 이 과정에서 ‘도메인 적응(Domain Adaptation)’이나 ‘메타러닝(Meta-learning)’ 같은 딥러닝 기술이 활용되어, 새로운 환경에 대한 빠른 적응력을 확보합니다. 5. 딥러닝 기반 적응형 인공지능은 자율주행차가 변화무쌍한 도로 환경에서 안정적이고 유연한 의사결정을 할 수 있도록 돕는 핵심 기술입니다.

🔍 딥러닝 해석 가능성과 투명성
1. 자율주행차 딥러닝 모델이 ‘왜’ 그렇게 판단했는지 알기 어려운 블랙박스 문제를 해결하는 것이 중요합니다. 2. 해석 가능한 AI 기법은 모델 내부의 주요 특징과 결정 근거를 시각화하거나 설명해 줍니다. 3. 운전자, 개발자, 규제기관 모두가 이해할 수 있도록 투명성을 제공함으로써, 안전성 확보와 법적 책임 소재를 명확히 하는 데 도움을 줍니다.

🛡️ 위험 상황 대비 ‘예측 불확실성 관리’
1. 딥러닝 판단에는 항상 오차와 불확실성이 존재합니다. 2. 이를 관리하기 위해 확률적 딥러닝, 베이지안 신경망 등 불확실성 추정 기법을 도입해, ‘이 판단이 얼마나 신뢰할 만한가?’를 정량적으로 평가합니다. 3. 불확실성이 클 경우 차량은 스스로 주행 속도를 줄이거나, 운전자 개입을 요청하는 안전 메커니즘을 작동시킵니다.

📚 딥러닝의 핵심 작동 단계

딥러닝은 인공신경망을 기반으로 한 인공지능 기술로, 학습(Training)과 추론(Inference)을 포함해 데이터 수집, 검증, 테스트 등 일련의 과정을 통해 작동합니다. 사람이 수많은 경험을 바탕으로 점점 더 정교한 판단을 하게 되듯, 딥러닝은 데이터를 단순히 입력받는 것이 아니라, 그 안의 복잡한 패턴과 구조를 스스로 이해하며 점차 ‘판단하는 법’을 배워갑니다.

1. 데이터 수집 및 전처리 (Data Collection & Preprocessing)
: 다양한 상황에서의 영상, 센서, GPS, 지도 정보 등을 데이터로 수집 하며, 자율주행에선 눈, 비, 야간, 공사 구간 등 여러 조건에서 데이터가 필요하고, 정확한 라벨링도 중요합니다. 이 전처리 단계에서는 이미지 보정, 정규화, 증강(augmentation) 등을 통해 학습 효율을 높입니다.

2. 학습 (Training)
: 모델이 주어진 입력(예: 이미지)과 출력(예: 보행자 여부) 간의 관계를 스스로 파악하는 과정입니다. 인공신경망이 오차를 줄이기 위해 수천~수만 번 반복적으로 가중치를 조정하며 학습에는 GPU/TPU 같은 고성능 연산 자원이 사용됩니다.

3. 검증 (Validation)
: 학습 중간중간, 모델이 지금 과적합(overfitting)되고 있지는 않은지, 또는 일반화는 잘 되고 있는지를 평가하는 단계입니다. 학습에 사용하지 않은 데이터를 일부 떼어 놓고, 그걸로 학습된 모델을 시험하며 모델 구조나 학습률 등 하이퍼파라미터를 조정할 때 중요한 피드백 역할을 합니다.

4. 테스트 (Testing)
: 학습이 완료된 후, 전혀 본 적 없는 데이터로 모델의 최종 성능을 확인하는 단계입니다. 자율주행에서는 이 단계에서야 비로소 모델을 실제 환경에 투입할 수 있을지를 판단하게 되며, 안전을 위해 ‘테스트셋’은 학습/검증과 완전히 분리되어야 합니다.

5. 추론 (Inference)
: 학습된 모델을 실제 차량에 탑재하여 실시간 입력 데이터를 분석하고 판단하는 단계입니다. 예를 들어, 보행자가 감지되면 정지, 좌회전 차선이 감지되면 방향 조정 하며, 추론 속도는 빠를수록 좋고, 경량화된 모델이 사용되는 경우도 많습니다.


2️⃣ 자율주행을 가능하게 하는 딥러닝 구성 요소

1. 대규모 데이터 기반의 ‘다중 시나리오 학습’
: 딥러닝은 단순히 객체를 분류하는 것을 넘어서, 수많은 주행 시나리오 자체를 학습합니다. 예를 들어, “눈 내리는 밤에 보행자가 신호 없이 도로를 건너는 상황”처럼 복합적인 조건을 결합한 데이터를 통해, 정적인 객체 인식이 아닌 동적인 상황 인식과 반응 능력을 갖추게 됩니다.
- 수집되는 데이터는 이미지, 라이다, IMU(관성 측정 장치), GPS 등 복합 센서 데이터를 포함
- 딥러닝은 이 데이터를 통해 패턴이 아닌 ‘상황 흐름’을 학습합니다

2. 특화된 신경망 구조의 적용
: 자율주행에서 사용되는 딥러닝 모델은 단순한 CNN을 넘어, 상황에 따라 서로 다른 신경망이 역할을 분담합니다.
- CNN(합성곱 신경망) : 이미지 기반 객체 탐지 및 차선 인식
- RNN / LSTM / GRU : 시간 흐름에 따른 차량/보행자 행동 예측
- Transformer 기반 구조 : 대규모 센서 정보를 동시에 처리하며 문맥적으로 판단
- 멀티모달 네트워크 : 이미지, 거리, 속도 등 서로 다른 데이터를 동시에 이해

3. 시맨틱 이해와 행동 예측 중심의 판단 구조
: 딥러닝은 단지 ‘무엇이 보이는가’가 아니라, ‘무엇을 하려는가’를 파악하는 데 중점을 둡니다.
- 예를 들어, 도로 가장자리의 사람이 “서 있는 보행자”인지 “곧 건널 사람”인지 구분 가능
- 차량의 움직임 궤적을 바탕으로 차선 변경 의도나 끼어들기 가능성 예측

4. 실시간 추론 최적화와 모델 경량화
: 딥러닝 모델은 주행 중 매 프레임마다 수십 가지 상황을 동시에 판단해야 합니다.
이를 위해 자율주행 시스템은 GPU나 전용 칩(TPU, NPU) 기반으로 동작하며, 모델을 경량화하거나 엣지 환경에서 빠르게 추론 가능한 형태로 최적화합니다.
- YOLO, EfficientNet, MobileNet 등 실시간 객체 탐지 특화 모델 활용
- 인식–판단–제어 사이의 딜레이를 최소화하기 위한 연산 병렬화 구조 설계

5. 자가 개선을 위한 딥러닝 순환 구조
: 딥러닝 기반 자율주행은 단발성 학습이 아닌 ‘순환적 진화 구조’를 갖습니다.
주행 중 발생하는 새로운 상황을 기록하고, 주기적으로 클라우드 또는 서버로 업로드하여 새로운 학습 데이터로 반영합니다.
- 예기치 못한 상황(예: 비정형 표지판, 일시적인 공사 구간 등)도 지속적으로 반영
- OTA(Over-the-Air) 방식으로 모델을 실시간 업데이트하며, 차량 스스로 ‘똑똑해짐’

🎯 딥러닝 기반 자율주행의 핵심 가치

● 정적인 인식에서 동적인 이해로 : 상황의 흐름까지 고려해 행동을 예측
● 복잡한 시나리오 대응력 : 다양한 조건을 동시에 고려하는 학습 능력
● 자동 개선 시스템 : 실제 주행 데이터를 활용해 지속적으로 성능 향상
● 인간 수준의 유연한 판단 : 단순 규칙 기반 시스템보다 높은 상황 적응력
● 멀티센서 융합 능력 : 눈·귀·감각에 해당하는 센서 데이터를 하나의 맥락으로 해석


3️⃣ 티처블 머신과 딥러닝

그림1

이미지 참조 : Teachable Machine 학습


티처블 머신(Teachable Machine)
티처블 머신은 구글(Google)이 만든 머신러닝 모델 훈련 도구로, 프로그래밍이나 복잡한 수식 지식 없이도 인공지능 모델을 직접 학습시키고 사용할 수 있게 만든 웹 기반 플랫폼입니다.

✅ 티처블 머신이란?

● 웹사이트 주소: https://teachablemachine.withgoogle.com
● 사용자는 이미지, 소리, 포즈(동작) 등을 분류할 수 있는 모델을 직접 학습(Training) 시킬 수 있습니다.
● 학습이 끝난 모델은 웹, 앱, 마이크로컨트롤러(Arduino, Zumi 등) 에서 사용할 수 있게 TensorFlow Lite, Keras, ONNX 등 다양한 형식으로 내보내기(export) 할 수 있습니다.


📘 어떤 식으로 사용하나요?

1. 데이터 수집
- 카메라, 마이크 등으로 이미지/소리/포즈 데이터를 직접 녹화하거나 업로드합니다.
- 예) "강아지", "고양이" 사진을 각각 30장씩 넣음
2. 모델 학습
- 버튼 한 번으로 머신러닝 모델을 학습시킵니다 (브라우저에서 바로 진행됨).
3. 결과 테스트 및 내보내기
- 학습한 모델로 새로운 입력을 넣어 분류 결과 확인 가능
- .tflite, .h5 등의 포맷으로 다운로드하여 다양한 플랫폼에서 사용 가능

🤖 티처블 머신과 딥러닝

티처블 머신은 딥러닝의 핵심 개념을 매우 직관적으로 체험할 수 있도록 설계된 도구입니다.

- 인공신경망(Neural Network): 내부적으로 사용됨 (주로 CNN)
- 데이터셋 구성: 사용자가 직접 이미지, 소리 등을 수집하여 분류
- 학습(Training): 모델이 데이터를 기반으로 학습 (브라우저에서 실행됨)
- 추론(Inference): 새 데이터 입력 시 어떤 클래스인지 예측
- 전이 학습(Transfer Learning): 이미 학습된 모델을 기반으로 사용자가 추가 학습을 시키는 방식 (전이학습 기반)

4️⃣ 티처블 머신으로 모델 만들기

티처블 머신을 사용해서 교통 표지판을 활용한 모델을 만들어 보겠습니다.

이미지 다운로드
그림1

이미지 참조 : 왼쪽부터 좌회전, 직진, 우회전 표지판 입니다.


🔽 티처블 머신을 활용한 표지판 모델 만들기

1. 다운로드
- 위의 이미지 다운로드 버튼을 눌러 좌회전,직진,우회전 3개의 이미지를 다운로드 받습니다.

2. 티처블 머신 사이트 접속

웹사이트 주소: https://teachablemachine.withgoogle.com
- 위의 링크를 클릭하여 티처블 머신 사이트에 접속 합니다.

3. 새 이미지 프로젝트 생성
- 아래의 그림 처럼 티처블 머신 사이트에서
시작하기 → 새 프로젝트 (이미지프로젝트) → 표준 이미지 모델을 클릭 합니다.

그림1

4. 클래스 이름 변경 및 학습 모델 업로드
(1) [+] 클래스 추가를 클릭하여 1개의 클래스를 더 만들어 줍니다.
(2) Class 1 옆에 펜 모양을 클릭하여 1번 클래스를 '좌회전'으로 만들어줍니다.
(3) 같은 방법으로 Class 2 → 직진 / Class 3 → 우회전 으로 만들어줍니다.
(4) 각 클래스의 업로드를 클릭하여 다운로드 받은 이미지를 각각 이름에 맞게 업로드 해줍니다.
(5) 아래 그림 처럼 좌회전,직진,우회전에 1개의 이미지 샘플이 모두 들어가면 완료 입니다.

그림1

5. 학습하기 및 학습 모델 추측
(1) 모든 모델이 입력 되었다면, "모델 학습시키기"를 클릭합니다.
(2) 학습중... 으로 표시되며, 학습 됩니다.
(3) 모델 학습이 완료 되면 위의 그림 처럼 웹캠이 켜집니다.
(4) 학습 모델은 웹캠에 비춰지는 이미지가, 좌회전,직진,우회전과 몇 %정도 일치하는지 추측 합니다.

6. 학습 모델 다운로드
(1) 모델 학습이 완료 되었다면, 웹캠 화면의 미리보기 옆의 [모델 내보내기]를 클릭합니다.
(2) 클릭 하면, 위 와 같이 모델 내보내기 창이 열립니다.
(3) 여기서 Tensorflow Lite의 '부동 소수점'을 체크 한 뒤 모델 다운로드를 클릭합니다.
(4) 모델 다운로드 버튼이 모델 변환중... 으로 바뀌며 모델을 전환 합니다.
(5) 이후 converted_tflite.zip 파일이 받아집니다.
(6) 압축을 해제하면 converted 폴더 안에 2개의 모델 파일(labels.txt, model_unquant.tflite)이 있습니다.


5️⃣ 주미 AI에 적용하기

티처블 머신으로 학습한 모델을 주미AI를 사용하여 인식 해보도록 하겠습니다.

그림1

🔹 티처블 머신 학습 모델 적용하기

1. 📁converted_tflite 파일을 바탕화면으로 가져옵니다.
2. 아래 프로그램 코드를 다운로드 받아서 실행합니다.
3. 다운로드 받은 코드 내부에서 아래의 사항을 확인하고 수정합니다.
4. # 1. Zumi 연결 시도 부분의 zumiAI.connect("192.168.0.82") 를 확인합니다.
5. # 4. 티처블 머신 모델 경로의
model_path = 'C:/Users/ROBOLINK/Desktop/converted_tflite/model_unquant.tflite'
label_path = 'C:/Users/ROBOLINK/Desktop/converted_tflite/labels.txt'
를 확인하고 알맞게 변경해줍니다.
6. 프로그램을 실행하여 정상적으로 인식 되는지 확인 합니다.

# 1. Zumi 연결 시도
zumiAI.connect("192.168.0.82")
print("Zumi 연결 완료")

# 4. 티처블 머신 모델 경로
model_path = 'C:/Users/ROBOLINK/Desktop/converted_tflite/model_unquant.tflite'
label_path = 'C:/Users/ROBOLINK/Desktop/converted_tflite/labels.txt'


🔶 학습 모델 에러

※ 위 코드를 실행해 보면, 아래의 그림 처럼 모든 표지판을 정확히 인식하지는 못하는 경우가 있습니다.
이는 Teachable Machine에서 각 클래스(종류)마다 단 한 장의 이미지만 학습시켰기 때문에 발생하는 현상입니다.
학습 데이터가 너무 적으면 모델이 다양한 상황을 일반화하기 어려워져 인식 정확도가 떨어지게 됩니다.
이러한 경험을 통해, 딥러닝에서도 다양한 상황을 반영한 충분한 데이터를 확보할수록 모델의 인식률과 정확도가 높아진다는 사실을 자연스럽게 이해할 수 있습니다.

그림1

6️⃣ 학습 데이터 늘리기

Teachable Machine은 머신러닝 모델을 학습시키기 위해 이미지 데이터를 사용합니다. 이때, 충분한 양의 데이터를 제공하는 것이 인식 정확도를 높이는 핵심 요소입니다. 학습 데이터를 늘리는 방법은 다음과 같이 두 가지가 있습니다

1. 같은 이미지를 여러 번 업로드하기
하나의 이미지를 반복해서 업로드하여 데이터 수를 늘리는 방식입니다.
단순하지만, 다양한 상황을 반영하지 못하기 때문에 일반화 성능이 크게 향상되지는 않습니다.

2. 웹캠을 활용하여 이미지를 다양하게 촬영하기
웹캠으로 같은 표지판을 여러 각도, 거리, 조명 조건에서 촬영하여 데이터를 수집합니다.

그림1

✅ 1. 데이터 수집의 중요성

💡 왜 데이터를 많이 모아야 할까?
딥러닝 모델은 사람이 일일이 규칙을 알려주지 않아도, 데이터를 보고 스스로 패턴을 학습합니다.
따라서 데이터가 적거나, 편향되어 있거나, 다양하지 않으면 모델이 상황을 잘 이해하지 못하게 됩니다.

📌 예를 들어:
교통 표지판을 전부 정면에서 찍은 사진만으로 학습시켰다면,
옆으로 기울어진 표지판이나 빛이 반사된 표지판은 제대로 인식하지 못합니다.

🔍 그래서 중요한 점은?
양: 데이터가 많을수록 다양한 상황을 학습 가능
질: 다양한 각도, 크기, 조명, 배경 등 현실적인 조건을 반영한 데이터가 중요


✅ 2. 오버피팅 방지

💡 오버피팅(Overfitting)이란?
훈련 데이터에 너무 과하게 맞춰서 학습한 나머지, 새로운 데이터(현실 상황)에서는 잘 작동하지 않는 현상입니다.

📌 예를 들어:
표지판 A의 이미지를 1장만 100번 학습시키면,
모델은 그 이미지에 너무 익숙해져서 그 이미지에만 잘 반응하고,
비슷한 표지판도 인식하지 못하게 됩니다.

🛡️ 어떻게 방지할까?
다양한 데이터를 수집해서 모델이 여러 상황을 일반화하도록 돕는다.
데이터를 늘리고 다양화할수록 오버피팅이 줄어듭니다.

좋은 딥러닝 모델을 만들기 위해서는 다양하고 충분한 데이터를 수집하는 것이 중요하며, 같은 데이터를 반복하는 대신 여러 상황을 반영한 다양한 데이터로 오버피팅을 방지하는 것이 효과적입니다.


7️⃣ 주미 AI를 인식하는 프로그램

아래의 이미지를 다운 받거나 웹캠(WebCam)을 활용하여 주미AI 의 앞, 옆, 뒷 면 데이터를 학습 시켜 봅니다. 또는 아래의 버튼을 사용해 학습 된 모델을 다운 받을 수도 있습니다


그림1

이 학습 모델은 각각 200장 정도의 웹캠 이미지 데이터를 사용하여 학습 된 모델 입니다.

학습 모델 다운로드

# 1. Zumi 연결 시도
zumiAI.connect("192.168.0.82")
print("Zumi 연결 완료")

# 4. 티처블 머신 모델 경로
model_path = 'C:/Users/ROBOLINK/Desktop/my_custom_model/model_unquant.tflite'
label_path = 'C:/Users/ROBOLINK/Desktop/my_custom_model/labels.txt'


위 학습 모델은 각 클래스마다 약 200장의 이미지를 웹캠으로 촬영해 학습시킨 것으로
아래 그림 처럼 실제 감지 결과, 전방(Front)은 약 67%(0.67)로 비교적 낮은 인식률을 보였지만
옆면(Side)과 뒷면(Back)은 100%(1.00)의 높은 인식률을 나타내는 것을 확인할 수 있었습니다.


그림1

이처럼 Teachable Machine을 활용해 다양한 데이터를 딥러닝 모델에 학습시키면
주미 AI도 더 많은 상황과 데이터를 정확하게 인식할 수 있도록 향상시킬 수 있습니다.