목록Project (57)
선릉역 1번 출구

gesture를 사용한 volume control 기능을 만들었다. 옆에는 cv2.rectangle을 사용해서 volume gauge를 표현했다. 처음에는 youtube에 있는 볼륨 조절기를 보고 4번과 12번의 x좌표 차이로 볼륨을 설정해놨었는데 카메라에서 손이 멀어지면 손가락 사이 길이가 짧아져서 볼륨이 내려가는 현상이 발생해서 z좌표에 영향을 받지 않는 angle을 사용했다. angle은 4, 9, 12dot을 가지고 아래 사이트 공식을 참고해 구했다. https://manivannan-ai.medium.com/find-the-angle-between-three-points-from-2d-using-python-348c513e2cdd Find the Angle between three points ..

컴퓨터로 mediapipe에 나와있는 api 사용하기 1. cmd 창으로 이동해서 가상환경을 설정한다. window + R를 누르고 cmd 입력 2. python3 -m venv mp_env 명령어 입력 후 가상환경 실행( .\mp_env\Scripts\activate) 3. C:\User\Username에 source code 저장(위의 경로에 저장하면 됨) import cv2 import mediapipe as mp mp_drawing = mp.solutions.drawing_utils mp_drawing_styles = mp.solutions.drawing_styles mp_hands = mp.solutions.hands # For static images: IMAGE_FILES = [] with ..

Mediapipe? 구글에서 제공하는 비전인식기능 서비스 이 mediapipe를 사용해서 인공지능 수업의 미니 프로젝트로 동작 인식 control service를 만들어보려고 한다. 먼저 mediapipe 홈페이지에 들어가서 내가 하고자하는 hands 부분을 읽어보자. https://google.github.io/mediapipe/solutions/hands Hands Cross-platform, customizable ML solutions for live and streaming media. google.github.io 1. Overview 구글의 mediapipe를 제공해 창의적인 활용 사례가 등장해 새로운 응용분야와 연구방안이 활성화되길 기대한다고 적혀있다. 그리고 play하는데 필요한 comp..