협업의 기본 원리
CrewAI에서의 협업은 핵심적인 요소다. 각 에이전트가 자신의 역량을 결합하고 정보를 공유하며 서로의 작업을 지원함으로써 진정한 협력 생태계를 구현한다.- 정보 공유: 모든 에이전트가 최신 정보를 공유하고 효과적으로 기여할 수 있도록 데이터와 발견 사항을 공유한다.
- 작업 지원: 특정 작업에 필요한 전문 지식을 가진 동료 에이전트로부터 도움을 요청할 수 있다.
- 리소스 할당: 에이전트 간에 리소스를 효율적으로 분배하고 공유함으로써 작업 실행을 최적화한다.
협업 개선을 위한 강화된 속성
Crew
클래스는 고급 기능을 지원하기 위해 여러 속성을 추가하여 개선되었다:
기능 | 설명 |
---|---|
언어 모델 관리 (manager_llm , function_calling_llm ) | 작업과 도구 실행을 위한 언어 모델을 관리한다. manager_llm 은 계층적 프로세스에 필요하며, function_calling_llm 은 선택 사항으로 기본값이 설정되어 있다. |
커스텀 매니저 에이전트 (manager_agent ) | 기본 CrewAI 매니저를 대체할 커스텀 에이전트를 지정한다. |
프로세스 흐름 (process ) | 작업 분배를 위한 실행 로직을 정의한다 (예: 순차적, 계층적). |
상세 로깅 (verbose ) | 모니터링과 디버깅을 위한 상세한 로깅을 제공한다. 정수와 불리언 값을 받아 로깅 수준을 조절한다. |
요청 제한 (max_rpm ) | 리소스 사용을 최적화하기 위해 분당 요청 수를 제한한다. 작업 복잡도와 부하에 따라 설정 가이드라인이 달라진다. |
국제화 및 커스텀화 (language , prompt_file ) | 전역 사용성을 위한 프롬프트 커스텀화를 지원한다. 파일 예시 |
실행 및 출력 처리 (full_output ) | 출력의 세부 사항을 제어하며, 전체 출력과 최종 출력을 구분한다. |
콜백 및 원격 측정 (step_callback , task_callback ) | 단계별 및 작업 수준의 실행 모니터링과 성능 분석을 위한 원격 측정을 활성화한다. |
Crew 공유 (share_crew ) | CrewAI와 크루 데이터를 공유하여 모델 개선에 기여한다. 프라이버시 영향과 이점을 고려해야 한다. |
사용 메트릭 (usage_metrics ) | 작업 실행 중 모든 LLM 사용 메트릭을 기록하여 성능 통찰력을 제공한다. |
메모리 사용 (memory ) | 실행 이력을 저장하기 위한 메모리를 활성화하여 에이전트 학습과 작업 효율성을 높인다. |
임베더 설정 (embedder ) | 언어 이해와 생성을 위한 임베더를 설정하며, 프로바이더 커스텀화를 지원한다. |
캐시 관리 (cache ) | 도구 실행 결과를 캐시할지 여부를 지정하여 성능을 향상시킨다. |
출력 로깅 (output_log_file ) | 크루 실행 출력을 기록할 파일 경로를 정의한다. |
계획 모드 (planning ) | 작업 실행 전에 액션 계획을 활성화한다. planning=True 로 설정하여 활성화한다. |
재실행 기능 (replay ) | CLI를 통해 마지막 실행에서 작업 목록을 확인하고 특정 작업부터 재실행할 수 있으며, 작업 관리와 문제 해결에 도움이 된다. |