2강. 이미지 오브젝트 머신러닝
안녕하세요 치우입니다.
iOS 머신러닝을 해봅시다.
1강의 데이터(*.json)가 준비 되어 있어야 합니다. : 1강 보러가기
오늘은 *.mlmodel 파일을 생성 하겠습니다.
애플에서는 여러가지 모델파일을 기본적으로 제공 해주고 있습니다.
손필기 숫자인식, 사물인식 등,매우 정확한 인식률을 보여주는 모델 입니다.
제가 사용하는 현재 Xcode의 버전은 12.4 입니다.
여기에서 제공하는 "Create ML"을 실행합니다.
뜬금없이 폴더 목록이 나오는데, 당황하지 말고 "New Document"를 합니다.
이중에 Object Detection을 합니다.
프로젝트 이름을 넣고, 파일을 생성해서 "Traning Data" 에 "학습 데이터"를 넣어 줍니다.
설정 -> 학습 -> 평가 -> 확인 -> 파일생성
이제 설정 옵션을 확인해 볼까요?
트레이딩 데이터: 12장의 이미지에 7개의 오브젝트가 있습니다.
3강 확인하기
2. Algorithem
알고리즘 선택 : 14부터 사용가능한 "Transfer Learning"에서 높은 정확성을 보입니다.
Full Network: iOS12+ 부터 사용가능
Transfer Learning: iOS14 부터 사용가능
3. Iterations
반복: 12장의 이미지는 기본 2000회로 나오네요, 이미지가 많을수록 권장 반복회수가 늘어 납니다.
4. Batch Size (Auto, 16 ~ 128)
학습모델의 사이즈에 따라 용량이 결정 됩니다. 16비트에서 가장 낮은 정확도와 낮은 용량을 제공 합니다.
5. Grid Size
머신이 인식하는 픽셀 단위인듯 합니다. 수치가 작을수록 용량이 커집니다.
옵션을 선택했으면
상단의 세모 버튼 "Train"을 시켜주세요.
이제 CPU 자원을 엄청 사용 하면서 학습곡선을 그립니다.
쿨러가 미친듯이 돌아갑니다.
2000회를 하려면 한 4~5시간 사용 하겠네요..
중간에 적당히 끊어줍니다. 우리는 테스트 닌까요 ^^
학습중인 화면입니다. 사진은 두번째 알고리즘 학습 곡선 입니다.
첫번째 알고리즘으로 했을 경우 : 30분에 loss 1.2
두번째 알고리즘으로 했을 경우 : 10분에 loss 0.15
알고리즘 차이가 심하네요.
머신러닝은 ios14 부터 사용하는걸 권장하는 걸까요?
평가는 넘어가고 모델 확인하는 방법은 학습 했던 이미지를 넣어보면
이렇게 오브젝트를 찾아 줍니다.
마지막 탭으로 이동해서 이 모델을 저장 합니다.
저는 "MyObjectDetector.mlmodel"
모델 파일이 생겼습니다.
오늘도 코딩이 한줄도 없네요.
다음시간에는 이 모델 파일로 직접 실시간 인식을 해보도록 합니다.











댓글
댓글 쓰기