🎯 Gemini API 模型全览
Google 最新 Gemini 系列模型,为不同应用场景提供最优解决方案。通过 简易API中转站 可以便捷接入所有模型。
gemini-2.5-flash
超快响应的轻量级模型,专为高频调用和实时应用设计。在保持优秀性能的同时,提供极高的性价比。
gemini-2.5-pro
平衡性能与成本的旗舰模型,具备强大的推理能力和多模态处理能力,适合大多数生产环境。
gemini-2.5-pro-preview-06-05
预览版本,包含最新的实验性功能和改进,为开发者提供先进特性的早期体验。
gemini-2.0-flash
2.0 系列的快速版本,在特定任务上表现优异,为legacy应用提供稳定的API兼容性。
gemini-2.5-pro-deepsearch
专为深度搜索和信息检索优化的特化模型,在处理复杂查询和知识整合方面表现卓越。
🔧 API 接入优势
即时接入
无需复杂配置,API Key 即获即用
无需复杂配置,API Key 即获即用
国内直连
优化网络路径,平均延迟 < 100ms
优化网络路径,平均延迟 < 100ms
成本优化
比官方价格低 20-40%,按需付费
比官方价格低 20-40%,按需付费
中文文档
完整的中文文档和代码示例
完整的中文文档和代码示例
稳定可靠
99.9% 可用性保证,24/7 监控
99.9% 可用性保证,24/7 监控
技术支持
专业技术团队,快速响应支持
专业技术团队,快速响应支持
📊 模型性能对比
| 模型 | 响应速度 | 上下文长度 | 多模态支持 | 适用场景 |
|---|---|---|---|---|
| gemini-2.5-flash | 超快 (< 500ms) | 128K tokens | ✅ 全支持 | 实时应用、高频调用 |
| gemini-2.5-pro | 快速 (< 1s) | 1M tokens | ✅ 全支持 | 复杂推理、文档分析 |
| gemini-2.0-flash | 快速 (< 800ms) | 64K tokens | ✅ 基础支持 | 通用任务、兼容性 |
| gemini-2.5-pro-deepsearch | 中等 (< 2s) | 1M tokens | ✅ 全支持 | 深度搜索、知识问答 |
💻 快速开始
以下是使用 Python 调用 Gemini API 的完整示例:
import requests
import json
# 配置 API 信息
API_KEY = "your_api_key_here"
BASE_URL = "https://api.jeniya.top/v1"
def call_gemini_api(model, prompt, **kwargs):
"""
调用 Gemini API 的通用函数
Args:
model: 模型名称 (gemini-2.5-flash, gemini-2.5-pro 等)
prompt: 输入提示
**kwargs: 其他参数 (temperature, max_tokens 等)
"""
headers = {
"Authorization": f"Bearer {API_KEY}",
"Content-Type": "application/json"
}
payload = {
"model": model,
"messages": [{"role": "user", "content": prompt}],
"temperature": kwargs.get("temperature", 0.7),
"max_tokens": kwargs.get("max_tokens", 1000),
"top_p": kwargs.get("top_p", 0.9)
}
response = requests.post(
f"{BASE_URL}/chat/completions",
headers=headers,
json=payload
)
return response.json()
# 使用示例
if __name__ == "__main__":
# 使用 gemini-2.5-flash 进行快速响应
result = call_gemini_api(
model="gemini-2.5-flash",
prompt="解释一下什么是机器学习?",
temperature=0.3,
max_tokens=500
)
print("Gemini 响应:")
print(result["choices"][0]["message"]["content"])
# 使用 gemini-2.5-pro 进行复杂推理
complex_result = call_gemini_api(
model="gemini-2.5-pro",
prompt="分析人工智能在医疗领域的应用前景和挑战",
temperature=0.5,
max_tokens=1500
)
print("\n复杂分析结果:")
print(complex_result["choices"][0]["message"]["content"])
🤔 常见问题
如何选择合适的 Gemini 模型?
根据应用场景选择:
• 实时应用:选择 gemini-2.5-flash,响应速度最快
• 复杂推理:选择 gemini-2.5-pro,性能最均衡
• 深度搜索:选择 gemini-2.5-pro-deepsearch,专为信息检索优化
• 预览体验:选择 gemini-2.5-pro-preview-06-05,体验最新功能
• 实时应用:选择 gemini-2.5-flash,响应速度最快
• 复杂推理:选择 gemini-2.5-pro,性能最均衡
• 深度搜索:选择 gemini-2.5-pro-deepsearch,专为信息检索优化
• 预览体验:选择 gemini-2.5-pro-preview-06-05,体验最新功能
API 调用有什么限制?
不同模型有不同的调用限制:
• 速率限制:根据套餐等级,每分钟 100-10000 次请求
• 上下文长度:从 64K 到 1M tokens 不等
• 并发连接:支持最多 100 个并发连接
具体限制请参考 官方文档
• 速率限制:根据套餐等级,每分钟 100-10000 次请求
• 上下文长度:从 64K 到 1M tokens 不等
• 并发连接:支持最多 100 个并发连接
具体限制请参考 官方文档
如何优化 API 调用成本?
以下策略可以有效降低成本:
• 模型选择:根据任务复杂度选择合适的模型
• 批量处理:将多个请求合并为单次调用
• 缓存策略:对相似请求进行缓存
• 参数优化:合理设置 max_tokens 和 temperature
• 模型选择:根据任务复杂度选择合适的模型
• 批量处理:将多个请求合并为单次调用
• 缓存策略:对相似请求进行缓存
• 参数优化:合理设置 max_tokens 和 temperature
支持哪些编程语言?
我们提供多种语言的 SDK 和示例代码:
• Python:官方 SDK 和详细示例
• JavaScript:Node.js 和浏览器环境支持
• Java:Spring Boot 集成示例
• Go:高性能 API 调用示例
• PHP:Laravel 集成指南
• Python:官方 SDK 和详细示例
• JavaScript:Node.js 和浏览器环境支持
• Java:Spring Boot 集成示例
• Go:高性能 API 调用示例
• PHP:Laravel 集成指南