나는 원래 unity 에셋스토어에서oculus integration을 다운받아 VR을 연결했다. (오큘러스 퀘스트 3)요즘은 어떤 방법으로 쉽게 할 수 있는지 검색해보자. (8일전) https://youtu.be/-tVfg8Zaqos 1. 유니티 버전에 모듈 추가. 이 사람은 2022버전**, android support난 기존에 설치 안해놔서 추가했다. 버전은 2022로해야한다 ! (2021에서는 설치 안됨)2.Meta XR All-in-One SDKunity asset store 에서 Meta XR All-in-One SDK 다운받기https://assetstore.unity.com/packages/tools/integration/meta-xr-all-in-one-sdk-269657 Meta XR ..
https://ing-min.tistory.com/191 EEG -Emotive EPOC x _ UNITY _ADD훈련https://emotiv.gitbook.io/cortex-api/bci/training training - Cortex API However, note that for the facial expression detection, only these actions can be trained: "neutral", "surprise", "frown", "smile", "clench". emotiv.gitbook.io https://github.com/Emotiing-min.tistory.com 유니티에서 이모티브사의 eeg를 구현하기 위해서 git에서 기본 example을 다운 받으면 된다...
comfyUI에서 애니메이션 모델 : AnimateDiff 을 활용하여이미지를 비디오로 만들어보자.https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved GitHub - Kosinkadink/ComfyUI-AnimateDiff-Evolved: Improved AnimateDiff for ComfyUI and Advanced Sampling SupportImproved AnimateDiff for ComfyUI and Advanced Sampling Support - Kosinkadink/ComfyUI-AnimateDiff-Evolvedgithub.com> comfuUI Manager를 통해 AnimateDiff Evolved 모델 설치하기난 이게 있지...
https://youtu.be/48xMyBqMfMYcomfyUI로 캐릭터를 원하는 움직임으로 바꿔보자. 1. viggle? AI 영상 제너레이터. 영상에 나오는 인물의 모션을 인식하여 캐릭터를 입히는 플로우. https://viggle.ai/디스코드로 이용해보자.2. 비글에서 제공하는 모션 샘플 . (프롬프트를 복사해서 붙여넣음 된다, 4:40)https://viggle.ai/prompt3. 영상에서 인물 없애기 (11분 : LaMA)4. comfyUI 로 영상 퀄리티 올릴 수 있다. //구체적으로 실습해보자.1. 디스코드 설치https://discord.com/download2. 비글 사이트에서 디스코드 참여하기https://viggle.ai/3. 디스코드에서 비디오 생성 채널 들어가기 (아무데나 ..
https://youtu.be/J0ApVgssvpA 위의 것을 하고싶다.comfyUI _animatediff tutorialhttps://youtu.be/WHxIrY2wLQE github _ comfyUIhttps://github.com/comfyanonymous/ComfyUI GitHub - comfyanonymous/ComfyUI: The most powerful and modular stable diffusion GUI, api and backend with a graph/nodes interfacThe most powerful and modular stable diffusion GUI, api and backend with a graph/nodes interface. - comfyanonymou..
https://m.blog.naver.com/bitelab/221892417268 [Bitelab] 아두이노 스피커 모듈 lm386을 이용하여 노래 만들기아두이노 스피커 모듈 lm386을 이용하여 노래 만들기 간단한 아두이노 스피커 모듈을 활용하여 노래를 만들...blog.naver.com Pin = D2VCC = 5vGND = -여기에서 시작했다.const int c = 261;const int d = 294;const int e = 329;const int f = 349;const int g = 391;const int gS = 415;const int a = 440;const int aS = 455;const int b = 466;const int cH = 523;const int cSH = 554..
SWITCH활성화/비활성화:특정 조건에 따라 입력을 프로그래매틱하게 선택하거나 변경할 수 있습니다. 이는 퍼포먼스나 상황에 따라 동적으로 콘텐츠를 스위칭할 때 유용합니다.**응용**:SWITCH 노드는 인터랙티브 인스톨레이션, 라이브 퍼포먼스, 멀티미디어 프레젠테이션 등에서 사용자의 입력이나 센서 데이터에 따라 다양한 미디어를 전환할 때 매우 유용합니다. - 예를 들어, 관객의 움직임에 따라 비디오 클립을 변경하는 인터랙티브 디스플레이를 만들 때 사용할 수 있습니다. ## 사용 예: 터치디자이너에서 SWITCH 노드를 사용하는 간단한 예로는, 버튼을 누를 때마다 다른 비디오가 재생되게 설정하는 것입니다. 각 비디오 소스는 SWITCH 노드의 다른 입력으로 연결되고, 버튼의 인터페이스는 'Select In..
- Total
- Today
- Yesterday
- JacobianMatrices
- 유니티플러그인
- DeepLeaning
- sequelize
- docker
- RNN
- 후디니
- Java
- MQTT
- opencv
- three.js
- oculuspro
- unity 360
- 유니티
- node.js
- motor controll
- 라즈베리파이
- ardity
- VR
- StableDiffusion
- AI
- emotive eeg
- TouchDesigner
- Arduino
- houdini
- CNC
- colab
- Python
- Unity
- Express
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |