ai-comic-factory

ai-comic-factory

AI驱动的漫画创作平台 简化创意表达过程

AI Comic Factory是一个开源的AI漫画创作平台,通过输入文字提示即可生成漫画作品。该项目结合了大型语言模型和图像生成技术,为创作者提供便捷的创作工具。平台支持多种配置选项,包括不同的语言模型和渲染引擎,可满足各类创作需求。AI Comic Factory简化了漫画创作流程,使得将创意转化为视觉故事变得更加容易。项目使用开源技术,包括Hugging Face的text-generation-inference和stabilityai的stable-diffusion-xl模型。用户可根据需求选择不同的语言模型引擎,如INFERENCE_API、INFERENCE_ENDPOINT、OPENAI、GROQ或ANTHROPIC。渲染引擎选项包括INFERENCE_API、INFERENCE_ENDPOINT、REPLICATE、VIDEOCHAIN和OPENAI。AI Comic Factory支持多种配置,可适应不同的应用场景和技术需求。

AI Comic Factory开源项目图像生成语言模型API配置Github

title: AI漫画工厂 emoji: 👩‍🎨 colorFrom: red colorTo: yellow sdk: docker pinned: true app_port: 3000 disable_embedding: false short_description: 用一个提示创建你自己的AI漫画 hf_oauth: true hf_oauth_expiration_minutes: 43200 hf_oauth_scopes: [inference-api]

AI漫画工厂

最新版本:AI漫画工厂1.2

AI漫画工厂即将拥有官方网站:aicomicfactory.app

有关我其他项目的更多信息,请查看linktr.ee/FLNGR

在家运行项目

首先,我想强调所有内容都是开源的(参见这里这里这里这里)。

然而,该项目并非可以立即复制和运行的单一Space:它需要各种组件来运行前端、后端、LLM、SDXL等。

如果你尝试复制项目,打开.env文件,你会看到它需要一些变量。

提供商配置:

  • LLM_ENGINE:可以是INFERENCE_APIINFERENCE_ENDPOINTOPENAIGROQANTHROPIC之一
  • RENDERING_ENGINE:目前可以是"INFERENCE_API"、"INFERENCE_ENDPOINT"、"REPLICATE"、"VIDEOCHAIN"、"OPENAI"之一,除非你编写自定义解决方案

认证配置:

  • AUTH_HF_API_TOKEN:如果你决定使用Hugging Face作为LLM引擎(推理API模型或自定义推理端点)
  • AUTH_OPENAI_API_KEY:使用OpenAI作为LLM引擎
  • AUTH_GROQ_API_KEY:使用Groq作为LLM引擎
  • AUTH_ANTHROPIC_API_KEY:使用Anthropic(Claude)作为LLM引擎
  • AUTH_VIDEOCHAIN_API_TOKEN:访问VideoChain API服务器的密钥令牌
  • AUTH_REPLICATE_API_TOKEN:如果你想使用Replicate.com

渲染配置:

  • RENDERING_HF_INFERENCE_ENDPOINT_URL:如果你决定使用自定义推理端点,则必需
  • RENDERING_REPLICATE_API_MODEL_VERSION:VideoChain API服务器的URL
  • RENDERING_HF_INFERENCE_ENDPOINT_URL:可选,默认为空
  • RENDERING_HF_INFERENCE_API_BASE_MODEL:可选,默认为"stabilityai/stable-diffusion-xl-base-1.0"
  • RENDERING_HF_INFERENCE_API_REFINER_MODEL:可选,默认为"stabilityai/stable-diffusion-xl-refiner-1.0"
  • RENDERING_REPLICATE_API_MODEL:可选,默认为"stabilityai/sdxl"
  • RENDERING_REPLICATE_API_MODEL_VERSION:可选,如果你想更改版本

语言模型配置(取决于你决定使用的LLM引擎):

  • LLM_HF_INFERENCE_ENDPOINT_URL:"<使用你自己的>"
  • LLM_HF_INFERENCE_API_MODEL:"HuggingFaceH4/zephyr-7b-beta"
  • LLM_OPENAI_API_BASE_URL:"https://api.openai.com/v1"
  • LLM_OPENAI_API_MODEL:"gpt-4-turbo"
  • LLM_GROQ_API_MODEL:"mixtral-8x7b-32768"
  • LLM_ANTHROPIC_API_MODEL:"claude-3-opus-20240229"

此外,还有一些社区共享变量,你可以忽略它们。 这些变量不是在你自己的网站或计算机上运行AI漫画工厂所必需的 (它们旨在与Hugging Face社区建立连接, 因此只适用于官方Hugging Face应用程序):

  • NEXT_PUBLIC_ENABLE_COMMUNITY_SHARING:你不需要这个
  • COMMUNITY_API_URL:你不需要这个
  • COMMUNITY_API_TOKEN:你不需要这个
  • COMMUNITY_API_ID:你不需要这个

请阅读.env默认配置文件以获取更多信息。 要在本地自定义变量,你应该创建一个.env.local文件 (不要提交这个文件,因为它会包含你的秘密)。

-> 如果你打算使用本地、云托管和/或专有模型运行它,你需要编写代码👨‍💻

LLM API(大型语言模型)

目前,AI漫画工厂通过推理端点使用zephyr-7b-beta

你有多个选项:

选项1:使用推理API模型

这是最近新增的选项,你可以使用Hugging Face Hub上的一个模型。默认情况下,我们建议使用zephyr-7b-beta,因为它会提供比7b模型更好的结果。

要激活它,请创建一个.env.local配置文件:

LLM_ENGINE="INFERENCE_API" HF_API_TOKEN="你的Hugging Face令牌" # 默认使用"HuggingFaceH4/zephyr-7b-beta",但你可以更改这个 # 注意:你应该使用能够生成JSON响应的模型, # 因此强烈建议至少使用34b模型 HF_INFERENCE_API_MODEL="HuggingFaceH4/zephyr-7b-beta"

选项2:使用推理端点URL

如果你想在运行在Hugging Face推理端点服务上的私有LLM上运行AI漫画工厂,请创建一个.env.local配置文件:

LLM_ENGINE="INFERENCE_ENDPOINT" HF_API_TOKEN="你的Hugging Face令牌" HF_INFERENCE_ENDPOINT_URL="你的推理端点URL路径"

要在本地运行这种LLM,你可以使用TGI(请阅读这篇文章以了解更多关于许可的信息)。

选项3:使用OpenAI API密钥

这是最近新增的选项,你可以使用OpenAI API密钥来使用OpenAI API。

要激活它,创建一个.env.local配置文件:

LLM_ENGINE="OPENAI" # 默认的openai api基础url是:https://api.openai.com/v1 LLM_OPENAI_API_BASE_URL="如果你有特殊权限,可以使用自定义的OpenAI API基础URL" LLM_OPENAI_API_MODEL="gpt-4-turbo" AUTH_OPENAI_API_KEY="你自己的OpenAI API密钥"

选项4:(新的,实验性)使用Groq

LLM_ENGINE="GROQ" LLM_GROQ_API_MODEL="mixtral-8x7b-32768" AUTH_GROQ_API_KEY="你自己的GROQ API密钥"

选项5:(新的,实验性)使用Anthropic(Claude)

LLM_ENGINE="ANTHROPIC" LLM_ANTHROPIC_API_MODEL="claude-3-opus-20240229" AUTH_ANTHROPIC_API_KEY="你自己的ANTHROPIC API密钥"

选项6:分叉并修改代码以使用不同的LLM系统

另一个选项是完全禁用LLM,并用另一个LLM协议和/或提供商(例如Claude、Replicate)替代,或者用人工生成的故事替代(通过返回模拟或静态数据)。

注意

我可能会在未来修改AI漫画工厂,使其更易使用(例如,添加对Claude或Replicate的支持)

渲染API

这个API用于生成面板图像。这是我为Hugging Face上的各种项目创建的API。

我还没有为它写文档,但基本上它只是其他现有API的"包装器™":

  • @hystshysts/SD-XL Space
  • 以及其他用于制作视频、添加音频等的API..但你不需要它们来使用AI漫画工厂

选项1:自己部署VideoChain

你需要克隆源代码

不幸的是,我还没有时间为VideoChain写文档。 (当我写完后,我会更新这个文档,指向VideoChain的README)

选项2:使用Replicate

要使用Replicate,创建一个.env.local配置文件:

RENDERING_ENGINE="REPLICATE" RENDERING_REPLICATE_API_MODEL="stabilityai/sdxl" RENDERING_REPLICATE_API_MODEL_VERSION="da77bc59ee60423279fd632efb4795ab731d9e3ca9705ef3341091fb989b7eaf" AUTH_REPLICATE_API_TOKEN="你的Replicate令牌"

选项3:使用其他SDXL API

如果你分叉项目,你将能够修改代码以使用你选择的Stable Diffusion技术(本地的、开源的、专有的、你的自定义HF Space等)。

它甚至可以是其他东西,比如Dall-E。

编辑推荐精选

商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

Keevx

Keevx

AI数字人视频创作平台

Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。

即梦AI

即梦AI

一站式AI创作平台

提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作

扣子-AI办公

扣子-AI办公

AI办公助手,复杂任务高效处理

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI辅助写作AI工具蛙蛙写作AI写作工具学术助手办公助手营销助手AI助手
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
下拉加载更多