티스토리 뷰
https://emotiv.gitbook.io/cortex-api/bci/training
training - Cortex API
However, note that for the facial expression detection, only these actions can be trained: "neutral", "surprise", "frown", "smile", "clench".
emotiv.gitbook.io
https://github.com/Emotiv/unity-plugin
GitHub - Emotiv/unity-plugin: Unity support for Cortex V3
Unity support for Cortex V3. Contribute to Emotiv/unity-plugin development by creating an account on GitHub.
github.com
뭐가 되는지 아직 모르겠음. 일단 이 두 사이트를 참고해서 GPT 한테 물어봤다.
Emotiv EPOC-X와 Unity를 사용하여 "ADD" 훈련을 진행하는 방법은 Emotiv의 Cortex API를 기반으로 합니다. 아래는 기본적인 단계를 요약한 것입니다:
- 선행 작업:
- Emotiv Launcher와 Cortex Service를 설치합니다.
- Unity에 Emotiv Unity Plugin을 설치합니다.
- Unity에서 초기 설정:
- EmotivUnityItf.cs를 사용하여 초기화를 진행합니다. Init() 함수를 호출하여 client ID와 client secret을 설정합니다.
- Start() 함수를 호출하여 Cortex와 연결하고 애플리케이션을 승인합니다.
- 헤드셋 연결:
- CreateSessionWithHeadset(string headsetId) 함수를 사용하여 헤드셋과 세션을 생성하고 활성화합니다.
- 프로필 설정:
- LoadProfile(string profileName) 함수를 사용하여 훈련 데이터를 저장할 프로필을 로드합니다.
- 훈련 시작:
- "sys" 데이터 스트림을 구독합니다. 이렇게 하면 훈련 이벤트를 볼 수 있습니다.
- StartMCTraining() 함수를 호출하여 "ADD" 훈련을 시작합니다. 이 함수의 인자로 "ADD"를 지정해야 합니다.
- 훈련 중에는 사용자가 "ADD" 작업에 집중해야 합니다. 훈련이 끝나면 AcceptMCTraining() 함수를 호출하여 훈련 결과를 수락합니다.
- 훈련 저장:
- SaveProfile() 함수를 호출하여 훈련 데이터를 프로필에 저장합니다.
- 프로젝트 종료 전:
- UnLoadProfile() 함수를 호출하여 프로필을 언로드합니다.
-
www.emotiv.com에 로그인하세요.
-
3. Cortex 앱을 선택합니다 .
-
4. 개발자 EULA를 주의 깊게 읽고 모든 이용 약관에 동의하는 경우에만 동의를 클릭하세요 .
-
5. 새 애플리케이션의 이름을 입력하세요. 애플리케이션 ID가 형식으로 자동 생성됩니다
-
6. (EEG 데이터 API 구독을 구매한 경우) 애플리케이션이 EEG 데이터 스트림에 액세스해야 하는지 여부를 결정합니다. 그렇다면 배포 라이센스를 위해 EMOTIV에 문의할 때까지만 애플리케이션을 사용할 수 있다는 점을 이해하십시오. 애플리케이션에 EEG 데이터가 필요 하지 않은 경우 배포 라이센스를 위해 EMOTIV에 문의하기 전에 최대 10,000명의 사용자와 이를 공유할 수 있습니다.
-
7. (**EEG 데이터 API 구독을 구매, 애플리케이션에 EEG 데이터 스트림에 대한 액세스가 필요 경우**) " 내 앱에는 EEG 액세스가 필요합니다 "를 선택합니다. ***

-
8. 애플리케이션 등록 을 클릭합니다 . 클라이언트 ID와 클라이언트 비밀번호가 제공됩니다. 클라이언트 비밀번호는 보안을 위해 이 화면에 한 번만 표시되므로 즉시 안전한 곳에 복사
-
9.(EEG 데이터 API 구독을 구매했고 애플리케이션에 EEG 데이터 스트림에 대한 액세스가 필요하다고 결정한 경우) https://www.emotiv.com/cortex-sdk-application-form 이 양식을 제출해야 합니다. / 필요한 정보가 포함되어 있습니다. 이 양식을 제출하지 않으면 애플리케이션에서 나중에 라이센스를 사용할 수 있는 권한이 없습니다. ***
https://github.com/Emotiv/cortex-example
GitHub - Emotiv/cortex-example: Example with Cortex V2/V3 API
Example with Cortex V2/V3 API. Contribute to Emotiv/cortex-example development by creating an account on GitHub.
github.com
위의 깃 내 폴더에 다운로드 했음
git clone https://github.com/Emotiv/cortex-example.git
cd cortex-example
- 최신 버전의 Emotiv Unity 플러그인을 하위 모듈로 다운로드하세요.
git submodule update --init
Unity에서 Emotiv Cortex를 사용하는 방법을 데모하는 2가지 예.
1. 데이터 구독 및 마커 삽입 데모를 목표로 하는 EmotivUnityPlugin.unity
2. SimpleExample.unity로 단순한 UI이지만 데모 데이터 구독, 마커 삽입 및 훈련 mentalcommand 데이터를 제공.
1.
EmotivUnityPlugin.unity 씬 열기.
실행하기 전에 AppConfig.cs에서 애플리케이션의 clientId, clientSecret을 설정하세요.
예제를 실행
승인 과정이 끝나면 헤드셋 목록 화면이 나타납니다. "연결" 버튼을 눌러 원하는 헤드셋에 연결하세요. (헤드셋 연결, 세션 생성, 장치 정보 구독(개발))
다음 화면에는 헤드셋의 장치 피팅 및 접촉 품질이 표시됩니다. 헤드셋의 접촉 품질이 좋아야 합니다. "완료" 버튼을 눌러 예제 보드 화면으로 이동하세요.
"데이터 구독자 예" 또는 "마커 예"를 선택할 수 있습니다.
"데이터 구독자 예": EEG, 동작 및 성능 지표 데이터 구독 및 구독 취소를 시연합니다. 하지만 DataSubscriber.cs에서 약간의 변경을 통해 다른 스트림을 구독할 수 있습니다.
"마커 예": 데모 생성 레코드, 마커 삽입 및 현재 마커 업데이트. 마커를 삽입하기 전에 먼저 레코드를 생성해야 합니다.
구독된 데이터는 DataBuffer에 저장된 다음 DataSubscriber.cs의 Update() 함수를 통해 가져옵니다. 현재는 1초마다 새로운 데이터가 표시됩니다.
오른쪽 상단 화면의 Contact Quality 표시기를 클릭하면 Contact Quality 화면으로 돌아가서 예시를 전환할 수 있습니다.
"마커 업데이트"는 인스턴스 마커를 시작 및 종료 시간이 있는 간격 마커로 만듭니다.
2.
SimpleExample.unity 씬
실행하기 전에 SimpleExample.cs에 애플리케이션의 clientId, clientSecret을 설정 ** (아래 사진 참고)
예제를 실행합니다. 프로세스를 승인한 후 헤드셋으로 세션을 생성할 수 있습니다. 헤드셋과 연결하고 세션을 생성하려면 "세션 생성" 버튼을 클릭하기 전에 헤드셋 ID를 입력하세요 . 텍스트 필드가 비어 있으면 헤드셋 목록의 첫 번째 헤드셋이 사용됩니다.
세션을 성공적으로 생성한 후에는 '레코딩'을 시작하고, 하나 이상의 데이터 스트림을 구독하고, 훈련용 프로필을 로드할 수 있습니다.
녹화 시작 및 중지: 녹화를 시작하기 전에 녹화 제목을 입력하세요. 녹화 설명은 선택 필드입니다.
마커 삽입: 레코드를 시작한 후 레코드에 인스턴스 마커를 삽입할 수 있습니다. 마커를 주입하기 전에 마커 값과 마커 라벨을 입력하세요.
데이터 구독 및 구독 취소: 데이터를 구독하기 전에 원하는 데이터 스트림을 선택하세요. 출력 데이터는 로그 상자에 표시됩니다.
프로필 및 교육 로드:
프로필을 로드하기 전에 프로필 이름을 입력하세요. 프로필이 없으면 생성된 후 로드됩니다.
훈련 이벤트를 보려면 훈련 전에 "시스템 이벤트" 데이터 스트림을 구독하십시오.
드롭다운에서 정신 명령 훈련을 선택한 다음 "훈련 시작"을 클릭하세요.
8초 후에 "MC_Succeeded" 이벤트가 표시될 수 있습니다. 교육을 수락하거나 거부할 수 있습니다.
훈련 후 "프로필 저장"을 클릭하여 훈련 데이터를 저장하세요.
닫기 전에 학습된 데이터를 언로드하세요.
이 예제에서는 인터페이스와 같은 EmotivUnityItf.cs를 사용하여 모든 작업을 수행합니다.
구독한 데이터는 기본적으로 DataBuffer에 저장됩니다. 하지만 '_isDataBufferUsing = false'로 설정하면 DataBuffer 없이 직접 데이터를 사용할 수 있는 옵션이 있습니다. EmotivUnityItf.cs의 OnDevDataReceived(), OnEEGDataReceived().etc. 등의 함수에서 구독된 데이터에 대한 출력을 확인하세요.
중립 동작만 표시되지 않는 한 "정신 명령" 또는 "얼굴 표정" 데이터를 구독하기 전에 훈련된 프로필을 로드하세요 .
유니티에서 client ID와 비밀코드를 입력해줘야한다.
SimpleExample 씬에서 실행했음.
뭘까.. 다음이시간에 더..
'Unity' 카테고리의 다른 글
Unity_ nuget 패키지 추가_dll (0) | 2023.10.12 |
---|---|
unity _ 아바타 입 모양 내 목소리_ LIPSYNC (0) | 2023.10.10 |
유니티에서 한글을 쉐이더에 활용해보자. (0) | 2023.08.10 |
Unity_2022_Spline (0) | 2023.07.30 |
Unity_VR_oculus _UI _Click (0) | 2023.06.14 |
- Total
- Today
- Yesterday
- Midjourney
- Python
- houdini
- MQTT
- 라즈베리파이
- node.js
- oculuspro
- Unity
- three.js
- 후디니
- AI
- DeepLeaning
- VR
- google ai studio
- Arduino
- runwayai
- opencv
- Java
- TouchDesigner
- colab
- CNC
- sequelize
- imgtoimg
- docker
- krea
- Express
- ai film
- RNN
- 유니티
- ai image generator
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |