안녕하세요. 구글 음성인식이 내부적으로 어떻게 돌아가는지 분석하고 있는 한 학생입니다.

미디어쪽 프레임워크 구성은 많은 정보가 있는 반면에 음성 인식쪽은 너무 없어서 분석하기가 힘드네요.


요점 : 현재 안드로이드에서 사용되고 있는 음성인식의 네이티브 프록시와 서비스프록시 리모트서비스들의 구성요소와 시스템서비스가 어디에 위치해있고 어떤 방식으로 돌아가고 있는지 궁금합니다.


sdk쪽에서 소스를 따라가면서 분석하고 있는데 sdk 음성인식 관련 소스들을 나열해보면

frameworks/base/core/java/android/speech/*

frameworks/base/services/java/com/android/server/RecognitionManagerService.java

인 것 같습니다. 짧은 지식으로 추축하건데 기타소스들에서 값 세팅을 한 후 speech폴더에 있는 RecognitionService, RecognitionListener클래스 파일로 IRecognitionService.aidl, IRecognitionListener.aidl을 사용하여 RPC를 하고 있는 것 같은데 리모트하는 플랫폼 소스가 어디에 위치해있는지를 도무지 모르겠네요. 


또 한가지 궁금한건 현재 안드로이드 음성인식에서 뉘앙스(Nuance)의 소스를 계속 쓰고 있는지 궁금합니다

externel/srec/*

frameworks/base/core/java/android/speech/speech/srec/*


많은 고수님들의 도움과 답변 부탁드립니다 ㅜㅜ