MLX LLM을 채팅 모델로 사용하는 방법을 보여줍니다.
특히 다음을 수행합니다:
- MLXPipeline을 활용합니다.
ChatMLX클래스를 활용하여 이러한 LLM들이 LangChain의 Chat Messages 추상화와 인터페이스할 수 있도록 합니다.- 오픈소스 LLM을 사용하여
ChatAgent파이프라인을 구동하는 방법을 시연합니다.
1. LLM 인스턴스화
선택할 수 있는 세 가지 LLM 옵션이 있습니다.2. 채팅 템플릿을 적용하기 위한 ChatMLX 인스턴스화
채팅 모델과 전달할 메시지들을 인스턴스화합니다.
3. 에이전트로 테스트하기
여기서는gemma-2b-it을 제로샷 ReAct 에이전트로 테스트합니다. 아래 예제는 여기에서 가져온 것입니다.
참고: 이 섹션을 실행하려면 SerpAPI Token을 환경 변수 SERPAPI_API_KEY로 저장해야 합니다.
react-json 스타일 프롬프트와 검색 엔진 및 계산기에 대한 액세스로 에이전트를 구성합니다.
Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.