Gemini API 开发指南

全面覆盖 Gemini 2.5 Flash/Pro、Gemini 2.0 Flash 等最新模型
一站式 API 接入解决方案,助力 AI 应用开发

🚀 立即获取 API Key
⬇️

🎯 Gemini API 模型全览

Google 最新 Gemini 系列模型,为不同应用场景提供最优解决方案。通过 简易API中转站 可以便捷接入所有模型。

gemini-2.5-flash
超快响应的轻量级模型,专为高频调用和实时应用设计。在保持优秀性能的同时,提供极高的性价比。
高速响应 经济实用 实时应用
gemini-2.5-pro
平衡性能与成本的旗舰模型,具备强大的推理能力和多模态处理能力,适合大多数生产环境。
多模态 强推理 生产就绪
gemini-2.5-pro-preview-06-05
预览版本,包含最新的实验性功能和改进,为开发者提供先进特性的早期体验。
预览版 实验性 最新特性
gemini-2.0-flash
2.0 系列的快速版本,在特定任务上表现优异,为legacy应用提供稳定的API兼容性。
稳定版 兼容性 特定优化
gemini-2.5-pro-deepsearch
专为深度搜索和信息检索优化的特化模型,在处理复杂查询和知识整合方面表现卓越。
深度搜索 信息检索 知识整合

🔧 API 接入优势

🚀
即时接入
无需复杂配置,API Key 即获即用
🌐
国内直连
优化网络路径,平均延迟 < 100ms
💰
成本优化
比官方价格低 20-40%,按需付费
📚
中文文档
完整的中文文档和代码示例
🛡️
稳定可靠
99.9% 可用性保证,24/7 监控
🔧
技术支持
专业技术团队,快速响应支持

📊 模型性能对比

模型 响应速度 上下文长度 多模态支持 适用场景
gemini-2.5-flash 超快 (< 500ms) 128K tokens ✅ 全支持 实时应用、高频调用
gemini-2.5-pro 快速 (< 1s) 1M tokens ✅ 全支持 复杂推理、文档分析
gemini-2.0-flash 快速 (< 800ms) 64K tokens ✅ 基础支持 通用任务、兼容性
gemini-2.5-pro-deepsearch 中等 (< 2s) 1M tokens ✅ 全支持 深度搜索、知识问答

💻 快速开始

以下是使用 Python 调用 Gemini API 的完整示例:

import requests
import json

# 配置 API 信息
API_KEY = "your_api_key_here"
BASE_URL = "https://api.jeniya.top/v1"

def call_gemini_api(model, prompt, **kwargs):
    """
    调用 Gemini API 的通用函数
    
    Args:
        model: 模型名称 (gemini-2.5-flash, gemini-2.5-pro 等)
        prompt: 输入提示
        **kwargs: 其他参数 (temperature, max_tokens 等)
    """
    headers = {
        "Authorization": f"Bearer {API_KEY}",
        "Content-Type": "application/json"
    }
    
    payload = {
        "model": model,
        "messages": [{"role": "user", "content": prompt}],
        "temperature": kwargs.get("temperature", 0.7),
        "max_tokens": kwargs.get("max_tokens", 1000),
        "top_p": kwargs.get("top_p", 0.9)
    }
    
    response = requests.post(
        f"{BASE_URL}/chat/completions",
        headers=headers,
        json=payload
    )
    
    return response.json()

# 使用示例
if __name__ == "__main__":
    # 使用 gemini-2.5-flash 进行快速响应
    result = call_gemini_api(
        model="gemini-2.5-flash",
        prompt="解释一下什么是机器学习?",
        temperature=0.3,
        max_tokens=500
    )
    
    print("Gemini 响应:")
    print(result["choices"][0]["message"]["content"])
    
    # 使用 gemini-2.5-pro 进行复杂推理
    complex_result = call_gemini_api(
        model="gemini-2.5-pro",
        prompt="分析人工智能在医疗领域的应用前景和挑战",
        temperature=0.5,
        max_tokens=1500
    )
    
    print("\n复杂分析结果:")
    print(complex_result["choices"][0]["message"]["content"])

🤔 常见问题

如何选择合适的 Gemini 模型?
根据应用场景选择:
实时应用:选择 gemini-2.5-flash,响应速度最快
复杂推理:选择 gemini-2.5-pro,性能最均衡
深度搜索:选择 gemini-2.5-pro-deepsearch,专为信息检索优化
预览体验:选择 gemini-2.5-pro-preview-06-05,体验最新功能
API 调用有什么限制?
不同模型有不同的调用限制:
速率限制:根据套餐等级,每分钟 100-10000 次请求
上下文长度:从 64K 到 1M tokens 不等
并发连接:支持最多 100 个并发连接
具体限制请参考 官方文档
如何优化 API 调用成本?
以下策略可以有效降低成本:
模型选择:根据任务复杂度选择合适的模型
批量处理:将多个请求合并为单次调用
缓存策略:对相似请求进行缓存
参数优化:合理设置 max_tokens 和 temperature
支持哪些编程语言?
我们提供多种语言的 SDK 和示例代码:
Python:官方 SDK 和详细示例
JavaScript:Node.js 和浏览器环境支持
Java:Spring Boot 集成示例
Go:高性能 API 调用示例
PHP:Laravel 集成指南

🎯 立即开始

准备好体验 Gemini API 的强大能力了吗?

🚀 获取 API Key,开始构建

新用户注册即享 ¥100 免费额度,支持所有模型测试