머신러닝딥러닝40 few shot learning 개념, 원리 few shot learning few shot learning 은 10개 미만의 매우 적은 데이터를 이용하여 효율적인 분류, 회귀 등 작업이 가능하도록 트레이닝하는 딥러닝 학습을 말합니다. 기존의 머신러닝/딥러닝 학습에서는 모델이 빅데이터의 양을 학습하여 정교하고 효율적인 모델을 만들 수 있었습니다. 하지만 few show learning은 적은 데이터로 학습된 모델을 이용하여 일반화하고 정확한 예측이 수행되도록 해야합니다. 퓨삿학습의 목표는 "배우는 법을 배우는 것"입니다. 퓨샷학습 모델은 훈련 데이터 이미지를 인식해서 테스트 데이터셋으로 일반화하는 게 아닌, 목표를 배우는 것입니다. few shot learning에는 N shot learning, transfer learning, meta lear.. 2023. 12. 7. Supervised Learning, Unsupervised Learning, Semi-supervised Learning 지도학습 , 비지도학습, 반지도학습 개념과 예시 알아보기 지도학습 Supervised Learning Supervised Learning 지도학습이란 라벨이 지정된 데이터셋을 준비하여 학습시키는 걸 말한다. 데이터셋의 class마다 정확한 라벨이 지정되어 있어, 정답지가 있는 상태에서 학습을 진행하며 각 class별 데이터의 특성이나 패턴을 분석하여 분류나 회귀 문제를 해결한다. Supervised Learning에서는 input data를 학습시켜 출력함수에서 올바른 출력(정답)을 낼 수 있도록 하는 출력값을 학습하는 것이다. 대표적인 지도학습 예시로는 스펨 메일 예측(분류)하기, 부동산 가격을 토대로 주택가격 예측(회귀) 등이 있다. 지도학습을 그림으로 표현한 것이다. 지도학습에서는 input data로 apple image를 학습하고, annotation.. 2023. 12. 5. mediapipe human detection crop image 미디어파이프 사람인식 및 crop image mediapipe human detection 기능 만들기 미디어파이프의 Pose Landmark Detection 기능을 이용하여 human detection 기능과 human detection된 image를 crop하여 저장하는 기능까지 만들어보려 한다. mediapipe의 pose landmarks를 이용해서 사람 얼굴을 detector로 인식한 pose estimation을 이용해서 신체 관절 33개 에 대한 x,y,z 좌표값을 추출해 낼 수 있다. 해당 신체 관절 x,y 값을 이용해서 사람이 포함된 이미지 범위를 찾고 human detection 기능으로도 이용해보고자 한다. human detection 후 해당 이미지를 crop하여 따로 사진을 저장함으로서, mediapipe를 이용한 huma.. 2023. 12. 4. FTP filezilla 파일질라 windows, Linux 설치 방법 및 사용 방법 FTP란? File Transfer Protocol FTP(File Transfer Protocol)는 컴퓨터 네트워크의 클라이언트와 서버 간의 파일을 전송하는데 사용되는 표준 네트워크 프로토콜을 말합니다. 파일 전송에서 가장 널리 사용되는 프로토콜 중 하나이고 대표적인 FTP 프로그램으로 Filezilla를 사용합니다. FTP SERVER 이는 사용자의 인터페이스로 FTP 서버에 파일 전송을 위해 요청을 시작하는 소프트웨어 또는 응용 프로그램입니다. 사용자 친화적인 인터페이스를 가진 그래픽 소프트웨어를 제공한다. FTP Client FTP 서비스를 호스팅하는 컴퓨터 또는 시스템입니다. 들어오는 FTP 연결을 수신하고 클라이언트의 요청을 처리하며 파일 저장 및 검색을 관리한다. FileZila 파일질라 .. 2023. 11. 20. Jetson Nano install mediapipe and ERROR: Failed building wheel for h5py 해결법 jetson nano install mediapipe 1. Jetson Nano에서 update를 진행한다. sudo apt update 2. mediapipe 설치를 위한 전제조건 및 종속성을 설치한다. sudo apt-get update sudo apt-get install libhdf5-serial-dev hdf5-tools libhdf5-dev zlib1g-dev zip libjpeg8-dev liblapack-dev libblas-dev gfortran sudo apt-get install python3-pip sudo pip3 install -U pip testresources setuptools==49.6.0 sudo pip3 install -U --no-deps numpy==1.19.4 f.. 2023. 11. 13. Jetson Nano install pytorch, torchvision 설치 방법 Jetson Nano Board CPU: Quad-core ARM Cortex-A57 CPU GPU: 128-core Maxwell GPU RAM: 4GB LPDDR4 RAM 저장 공간: microSD 카드 슬롯 및 USB 스토리지를 통한 확장 가능 AI 성능: 중소규모 AI 모델 및 작업에 적합한 GPU 성능을 제공 저전력 소비: 소형 크기 및 저전력 소비 로 이동성이 용이 Jetson Nano install pytorch / torchvision JetPack 4.6 Production Release with L4T 32.6.1을 다운로드 받아서 Jetson Nano Board에 설치하였습니다. jetpack 4 버전대 에서는 PyTorch v1.10.0 버전을 다운로드 받아 사용했는데, 해당 버전은.. 2023. 11. 13. Jetson Nano Jetpack 4.6.1 L4T 32.6.1 install SD Card image flash 설치법 Nvidia Jetson Nano Board ? CPU: Quad-core ARM Cortex-A57 CPU GPU: 128-core Maxwell GPU RAM: 4GB LPDDR4 RAM 저장 공간: microSD 카드 슬롯 및 USB 스토리지를 통한 확장 가능 AI 성능: 중소규모 AI 모델 및 작업에 적합한 GPU 성능을 제공 저전력 소비: 소형 크기 및 저전력 소비 로 이동성이 용이 JetPack 4.6.1 Production Release with L4T 32.6.1 SD Card image 파일 Flashing(굽기) JetPack 4.6 Production Release with L4T 32.6.1 파일을 빈 SD Card에 넣어 Nvidia Jetson Nano Board에 Jetpack.. 2023. 11. 2. GridSearchCV 하이퍼파라미터 튜닝 및 파라미터 정리 하이퍼파라미터 튜닝이란? HyperParameter란 모델을 학습시키기 이전에 모델의 동작을 제어함으로써, 모델의 성능에 큰 영향을 미칠 수 있는 매개변수를 말한다. HyperParameter의 예시로는 learning rate, hidden layer unit 개수, dropout 비율 등 모델 학습에 영향을 미치면서 직접 조정가능한 매개변수들을 HyperParameter라고 한다. HyperParameter tunning이란 조정가능한 매개변수인 HyperPrameter들을 이용하여 학습 모델의 성능을 개선하고 최적화할 수 있는 최적의 매개변수를 찾는 과정을 말한다. 대표적인 하이퍼파라미터 튜닝 기법으로는 GridSearchCV, Random Search, Bayesian Optimization, G.. 2023. 5. 23. Batch Normalization VS Layer Normalization Normalization(정규화)이란? Normalization(정규화)의 목적은 모든 데이터들의 스케일을 동일하게 만들어서 각 feature 값들이 동등한 중요도를 가지도록 하는 작업이다. 정규화 되지 않은 Un-normalization 그래프를 확인하면 value 값들의 범위가 0~20까지 분포되어 있는 걸 확인할 수 있다. 이를 정규화시켜 그래프로 나타내면 0~1사이의 값들로 일정한 분포를 가진 데이터로 변경해줄 수 있다. Batch Normalization Batch Normalization은 인공신경망을 학습할 때 각 layer에 들어가는 input data를 평균, 분산을 이용해 정규화하여 효율적인 학습을 할 수 있는 방법이다. Batch Normalization은 배치 차원에서 Layer의 .. 2023. 5. 18. 이전 1 2 3 4 5 다음 반응형