ChatGemini

ChatGemini

智能对话平台 支持多轮交互及图像识别

ChatGemini是一款基于Google Gemini API开发的网页客户端,功能类似ChatGPT 3.5。支持多轮对话、图片识别和逐字输出回应。用户可自定义API服务器地址,便于在各地区使用。界面适配移动端,支持聊天内容导出和在AI回应中运行Python代码。该项目为用户提供了功能丰富的AI对话体验。

ChatGeminiGoogle GeminiAI对话图片识别反向代理Github开源项目

ChatGemini

ChatGemini是一个基于Google Gemini的网页客户端,与ChatGPT 3.5相对应,使用逻辑与ChatGPT 3.5一致,同时支持在聊天中上传图片,自动调用Gemini-Pro-Vision模型进行图像识别。

本项目还可自定义Gemini API服务器地址,用户可将本项目部署到支持PHP的服务器或虚拟主机上,或自行配置Nginx反向代理,通过修改Gemini API路径,从而在中国大陆无障碍使用。

如果您对本项目感兴趣,欢迎Star和Fork。

演示站点(需翻墙)

ChatGemini

讨论群组

欢迎加入Telegram群组,与其他用户交流,反馈问题或建议,也可以在群组中了解最新动态。

加入群组,请友善交流。

功能特性

  • 适配移动端
  • 支持多API密钥分流
  • 操作逻辑同ChatGPT
  • 仿ChatGPT 3.5界面
  • 支持多轮聊天对话
  • 支持上传图片进行识别
  • 逐字输出(SSE)回应
  • 集成PHP版反向代理
  • 自定义Gemini API地址
  • 可启用站点通行码防止滥用
  • 聊天内容导出(HTML和PDF)
  • 对话内容保存在IndexedDB中
  • 在AI回应中运行Python代码

界面预览

<details><summary>点击展开网页效果</summary>
功能预览
主界面<img src="https://yellow-cdn.veclightyear.com/835a84d5/cdf72190-783d-424c-8e34-1dbbb0a27079.png" alt="主界面" />
多轮聊天<img src="https://yellow-cdn.veclightyear.com/835a84d5/9d37d381-6479-4e91-bfdd-b492a38df613.png" alt="多轮聊天" />
附件识图<img src="https://yellow-cdn.veclightyear.com/835a84d5/5749c81c-e478-454c-b7ec-04f64e6b11a9.png" alt="附件识图" />
执行Python<img src="https://yellow-cdn.veclightyear.com/835a84d5/502c0088-a1f1-4cca-a19c-608f93aa9392.png" alt="执行Python" />
逐字输出回应<img src="https://yellow-cdn.veclightyear.com/835a84d5/d8d30b7b-be17-4cf4-a0f1-b092e78fa3ab.png" alt="逐字输出回应" />
聊天导出HTML<img src="https://yellow-cdn.veclightyear.com/835a84d5/1425b762-8d61-40ef-b14d-a10321760ed8.png" alt="聊天导出HTML" />
聊天导出PDF<img src="https://yellow-cdn.veclightyear.com/835a84d5/11511733-004c-4986-a79a-b81f18ca8d9b.png" alt="聊天导出PDF" />
</details>

应用部署

请确保您已经获得Gemini API密钥,有关Gemini API的申请,请前往Google AI Studio

手动部署

确保已安装Node.jsGit

准备工作完成后,执行以下步骤:

  1. 将仓库克隆至本地
$ git clone https://github.com/bclswl0827/ChatGemini
  1. 进入项目目录
$ cd ChatGemini
  1. 安装依赖
$ npm install
  1. 修改配置

参考下方的应用配置章节

  1. 构建项目
$ npm run build
  1. 部署项目

build目录下的文件部署至服务器或虚拟主机上

  1. 启动服务(可选)

若在本地运行,执行

$ npm run start

Docker部署

确保服务器上已安装Docker,然后执行以下步骤:

  1. 拉取镜像
$ docker pull ghcr.io/bclswl0827/chatgemini
  1. 运行容器
$ docker run -d \ --name chatgemini \ --restart always \ --publish 8080:8080 \ --env REACT_APP_GEMINI_API_KEY="您的密钥" \ ghcr.io/bclswl0827/chatgemini

若要在 Docker 版本中启用自动设定的 Nginx 反向代理,请将 REACT_APP_GEMINI_API_URL 变量值设为 __use_nginx__,即在创建容器时加上 --env REACT_APP_GEMINI_API_URL="__use_nginx__" 参数

  1. 访问应用

访问 http://<IP>:8080 即可

Vercel 部署

本项目支持 Vercel 一键部署,点击下方按钮即可部署至 Vercel 平台。

使用 Vercel 部署

模板中仅留下了必填的 REACT_APP_GEMINI_API_KEY 变量,在部署完成后,若需修改或新增配置,请前往 Vercel 控制台,点击对应项目,再点击 Settings -> Environment Variables 进行修改。修改完成后,需要在 Vercel 控制台重新触发部署,以使新配置生效。

保持更新

若使用手动部署

若使用手动部署,可通过以下步骤保持更新:

  1. 进入项目目录
$ cd ChatGemini
  1. 拉取最新代码
$ git pull
  1. 安装依赖
$ npm install
  1. 重新构建项目
$ npm run build
  1. 部署项目
  2. 重启服务

若使用 Docker 部署

若是使用传统 docker run 指令部署的版本,可通过以下步骤保持更新:

  1. 删除旧容器
$ docker rm -f chatgemini
  1. 拉取最新镜像
$ docker pull ghcr.io/bclswl0827/chatgemini
  1. 运行新容器
$ docker run -d \ --name chatgemini \ --restart always \ --publish 8080:8080 \ --env REACT_APP_GEMINI_API_KEY="您的密钥" \ ghcr.io/bclswl0827/chatgemini

若是使用 docker-compose 指令部署的版本,可通过以下步骤保持更新:

  1. 进入 docker-compose.yml 所在目录
  2. 拉取最新镜像
$ docker-compose pull
  1. 重启容器
$ docker-compose up -d --remove-orphans
  1. 移除旧镜像(可选)
$ docker image prune

若使用 Vercel 部署

使用 Vercel 部署的项目,平台会在用户 GitHub 仓库创建一个新仓库,而不是 Fork 本仓库,因此无法正确检测更新。请按照下列步骤手动更新:

  1. 删掉由 Vercel 创建的仓库
  2. 使用页面右上角的 Fork 按钮,Fork 本项目
  3. 在 Vercel 重新选择并部署 Fork 后的项目并完成部署

Fork 后的仓库,由于 GitHub 存在限制,需要手动去您 Fork 后仓库的 Actions 页面启用 Workflows,并启用 Upstream Sync Action,启用之后即可开启每小时定时自动同步上游代码。

应用配置

项目基础配置位于根目录下的 .env 文件中,手动部署时,请创建该文件并根据实际情况进行配置;若使用 Docker 方式部署,请在创建容器时传入 --env 参数进行配置。

配置格式均为 KEY="VALUE",建议使用双引号包裹值,例如:

REACT_APP_GEMINI_API_KEY="您的密钥"

各配置项说明如下:

配置项必填可选值默认值说明备注
REACT_APP_GEMINI_API_KEY字符串|字符串数组填入 Gemini API 密钥,多个以 | 分隔存在多个密钥时,每次应用加载时随机选用一个
REACT_APP_GEMINI_API_URL字符串自定义 Gemini API 地址,具体参考下方说明
REACT_APP_GEMINI_API_SSEtrue|falsetrue是否逐字输出 Gemini 回应,即是否启用 SSE
REACT_APP_TITLE_SITE字符串ChatGemini站点标题,将显示在浏览器标签页上
REACT_APP_TITLE_HEADER字符串Gemini Pro应用标题,显示在应用侧边栏和头部
REACT_APP_PASSCODE_MD5字符串|字符串数组MD5 格式通行码,多个以 | 分隔存在多个通行码时,任意一个通过验证即可登入

站点通行码

启用通行码后,用户在每次访问应用时,需要先输入通行码,才能开始使用应用。

若要为您的站点启用通行码,可以在 .env 中的 REACT_APP_PASSCODE_MD5 字段填入 MD5 格式的通行码,多个以 | 分隔,例如:

REACT_APP_PASSCODE_MD5="E10ADC3949BA59ABBE56E057F20F883E|C33367701511B4F6020EC61DED352059"

要生成 MD5 格式的通行码,可以使用相关在线工具,例如 MD5 哈希生成器

注意:本应用通行码为无盐值 MD5 格式,有一定概率被破解,因此请勿将您的重要密码作为通行码。

直连 Gemini API

若要直连 Gemini API,请将 .env 中的 REACT_APP_GEMINI_API_URL 字段留空,即:

REACT_APP_GEMINI_API_URL=""

Nginx 反向代理 Gemini API

若要使用 Nginx 反向代理,请将 .env 中的 REACT_APP_GEMINI_API_URL 修改为反向代理后的地址,例如 https://example.org/api,即:

REACT_APP_GEMINI_API_URL="https://example.org/api"

若反代同网站位于相同基础路径下,也可简写为 /api,跨域则须填写完整地址。

下面是一个 Nginx 反代配置示例供参考,路径以 /api 为例:

location /api { proxy_http_version 1.1; proxy_read_timeout 86400s; proxy_cache off; # 注意关闭缓存 proxy_buffering off; # 注意关闭缓冲 proxy_pass https://generativelanguage.googleapis.com/; }

PHP 反向代理 Gemini API

若部署平台不允许修改 Nginx 配置,但是提供 PHP 环境,或是您有闲置的 PHP 虚拟主机,可以考虑使用项目集成的 PHP 反向代理,脚本位于 public/gemini.php

要使用 PHP 反向代理,请修改 PHP 脚本中的 ACCESS_TOKEN 定义后,将 PHP 脚本上传到相应平台,再修改 .env 中的 REACT_APP_GEMINI_API_URLhttps://example.org/gemini.php?token=<您定义的 Access Token>&path=

Access Token 以 Nt6PRcQ2BZ8FY9y7Lnk35S 为例,即:

REACT_APP_GEMINI_API_URL="https://example.org/gemini.php?token=Nt6PRcQ2BZ8FY9y7Lnk35S&path="

若反代同网站位于相同基础路径下,也可简写为 /gemini.php?token=Nt6PRcQ2BZ8FY9y7Lnk35S&path=,跨域则须填写完整地址。

Netlify 反向代理 Gemini API

Netlify 亦可以用于反向代理 Gemini API,有关使用方法和部署链接,请前往 antergone/palm-netlify-proxy 查看。

部署好应用过后,分配的域名以 example.netlify.app 为例,即:

REACT_APP_GEMINI_API_URL="https://example.netlify.app"

Cloudflare Worker 反向代理 Gemini API

通过Cloudflare Worker也能快速反向代理Gemini API,快速,易用,安全。有关使用方法和部署链接,可以前往CattleZone/Gemini-Proxy查看。 部署应用后,以分配的域名"example.workers.dev"为例,即

REACT_APP_GEMINI_API_URL="https://example.workers.dev"

使用Cloudflare Worker反向代理Gemini API

也可以通过Cloudflare Workers实现Gemini API的反向代理。关于使用方法和部署链接,可以访问CattleZone/Gemini-Proxy查看。

请注意,由于Cloudflare Workers默认分配的域名(以".dev"结尾)在中国大陆无法访问,因此需要另外绑定域名。

部署应用并绑定域名后,以"api.example.com"为例,即

REACT_APP_GEMINI_API_URL="https://api.example.com"

开源许可

本项目根据MIT协议开源,详情请参阅LICENSE

Star History Chart

编辑推荐精选

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

下拉加载更多