发现和使用优秀的技能扩展
将您的大型语言模型成本降低200倍。将并行、批量和研究工作卸载到Gemini Flash工作节点,而不是消耗您昂贵的主模型资源。
Cut your LLM costs by 200x. Offload parallel, batch, and research work to Gemini Flash workers instead of burning your expensive primary model.