作者 @xtekky
[!重要提示] 使用本存储库或任何相关代码,即表示您同意法律声明。本仓库的作者不对使用承担责任,也不认可该仓库,也不对任何副本、分支、其他用户重新上传或任何其他与GPT4Free相关的内容负责。这是作者的唯一账号和存储库。为防止冒充或不负责任的行为,请遵守本存储库使用的GNU GPL许可证。
[!警告] "gpt4free" 是一个概念验证(PoC),展示了具有多提供商请求功能的API包的开发,包括超时、负载均衡和流量控制等功能。
pip install -U g4f[all]
docker pull hlohaus789/g4f
-
探索最新功能和更新
在发布页面查看全面详情。 -
关注我们的Telegram频道 📨
加入telegram.me/g4f_channel。 -
订阅Discord新闻频道 💬🆕️
通过Discord新闻频道: discord.gg/5E39JUWUFa了解更新。 -
在Discord社区获取支持 🤝💻
通过支持群组: discord.gg/qXA4Wf4Fsm获取帮助。
如果您的站点在本仓库中且您想将其下线,请发送电子邮件至[email protected]并提供证明其属于您的证据,我们将尽快移除。为防止重新出现,请保护您的API。😉
Is a proof-of-concept API package for multi-provider AI requests. It showcases features such as:
- Load balancing and request flow control.
- Seamless integration with multiple AI providers.
- Comprehensive text and image generation support.
Explore the Visit GPT4Free on HuggingFace Space for a hosted version or Duplicate GPT4Free Space it for personal use.
- 🆕 最新动态
- 📚 目录
- ⚡️ 开始使用
- 💡 使用方法
- 🚀 Providers and Models
- 🔗 Powered by gpt4free
- 🤝 Contribute
- 🙌 Contributors
- ©️ Copyright
- ⭐ Star History
- 📄 License
- 安装Docker: 下载并安装Docker。
- 设置目录: 在运行容器之前,请确保必要的数据目录存在或可以创建。例如,您可以通过运行以下命令创建并设置这些目录的所有权:
mkdir -p ${PWD}/har_and_cookies ${PWD}/generated_images
sudo chown -R 1200:1201 ${PWD}/har_and_cookies ${PWD}/generated_images
- 运行Docker容器: 使用以下命令拉取最新镜像并启动容器(仅x64):
docker pull hlohaus789/g4f
docker run -p 8080:8080 -p 7900:7900 \
--shm-size="2g" \
-v ${PWD}/har_and_cookies:/app/har_and_cookies \
-v ${PWD}/generated_images:/app/generated_images \
hlohaus789/g4f:latest
- 运行Slim Docker镜像: 使用以下命令运行Slim Docker镜像。此命令还会在启动时更新
g4f
包并安装任何其他依赖项:(x64和arm64)
mkdir -p ${PWD}/har_and_cookies ${PWD}/generated_images
chown -R 1000:1000 ${PWD}/har_and_cookies ${PWD}/generated_images
docker run \
-p 1337:1337 \
-v ${PWD}/har_and_cookies:/app/har_and_cookies \
-v ${PWD}/generated_images:/app/generated_images \
hlohaus789/g4f:latest-slim \
rm -r -f /app/g4f/ \
&& pip install -U g4f[slim] \
&& python -m g4f --debug
-
访问客户端界面:
- 要使用包含的客户端,请访问: http://localhost:8080/chat/
- 或将客户端的API基础设置为: http://localhost:8080/v1
-
(可选)提供商登录: 如果需要,您可以在此处访问容器的桌面:http://localhost:7900/?autoconnect=1&resize=scale&password=secret 以进行提供商登录。
为了确保我们的应用程序能够顺利运行,请按照以下说明进行操作。这些步骤旨在指导您在Windows操作系统上完成安装过程。
安装步骤:
- 下载应用程序: 访问我们的发布页面并下载最新版本的应用程序,名为
g4f.exe.zip
。 - 文件放置: 下载后,在您的下载文件夹中找到
.zip
文件。将其解压缩到您系统上选择的目录,然后执行g4f.exe
文件以运行应用程序。 - 打开GUI: 该应用程序启动一个带有GUI的Web服务器。打开您喜欢的浏览器并导航到http://localhost:8080/chat/以访问应用程序界面。
- 防火墙配置(热修复): 安装后,可能需要调整Windows防火墙设置以允许应用程序正常运行。为此,请访问Windows防火墙设置并允许应用程序。
通过遵循这些步骤,您应该能够成功在Windows系统上安装和运行应用程序。如果在安装过程中遇到任何问题,请参阅我们的问题跟踪器或尝试通过Discord获取帮助。
- 从python.org安装Python 3.10+。
- 为某些提供商安装Google Chrome。
pip install -U g4f[all]
如何仅安装部分或禁用部分?使用部分需求: /docs/requirements
git clone https://github.com/xtekky/gpt4free.git
cd gpt4free
pip install -r requirements.txt
如何使用git加载项目并安装项目需求?阅读本教程并按步骤操作: /docs/git
from g4f.client import Client
client = Client()
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "Hello"}],
web_search=False
)
print(response.choices[0].message.content)
Hello! How can I assist you today?
from g4f.client import Client
client = Client()
response = client.images.generate(
model="flux",
prompt="a white siamese cat",
response_format="url"
)
print(f"Generated image URL: {response.data[0].url}")
使用Python运行GUI:
from g4f.gui import run_gui
run_gui()
通过CLI运行(启动Flask服务器):
python -m g4f.cli gui --port 8080 --debug
或者,启动FastAPI服务器:
python -m g4f --port 8080 --debug
了解更多关于GUI的信息: 有关如何设置、配置和使用GPT4Free GUI的详细说明,请参阅GUI文档。本指南包括提供商选择、管理对话、使用高级功能(如语音识别)等的详细步骤。
接口API通过G4F实现与OpenAI服务的无缝集成,使您能够部署高效的AI解决方案。
- 文档: 接口API文档
- 端点:
http://localhost:1337/v1
- Swagger UI: 通过Swagger UI在
http://localhost:1337/docs
浏览OpenAPI文档 - 提供商选择: 如何指定提供商?
此API设计为简便实施,并增强与其他OpenAI集成的兼容性。
在智能手机上运行Web UI,方便随时随地访问。查看专门的指南,了解如何设置和使用手机上的GUI:在智能手机上运行指南
- G4F的客户端API: /docs/client
- G4F的AsyncClient API: /docs/async_client
- G4F的Requests API: /docs/requests
- G4F的File API: /docs/file
- G4F的PydanticAI和LangChain集成: /docs/pydantic_ai
- 使用python模块的旧版API: /docs/legacy
- G4F - 媒体文档 /docs/media (新)
We welcome contributions from the community. Whether you're adding new providers or features, or simply fixing typos and making small improvements, your input is valued. Creating a pull request is all it takes – our co-pilot will handle the code review process. Once all changes have been addressed, we'll merge the pull request into the main branch and release the updates at a later time.
- 阅读: 创建提供商指南
- 阅读: AI帮助指南
A list of all contributors is available here
- The
Vercel.py
file contains code from vercel-llm-api by @ading2210 - The
har_file.py
has input from xqdoo00o/ChatGPT-to-API - The
PerplexityLabs.py
has input from nathanrchn/perplexityai - The
Gemini.py
has input from dsdanielpark/Gemini-API - The
MetaAI.py
file contains code from meta-ai-api by @Strvm - The
proofofwork.py
has input from missuo/FreeGPT35 - The
Gemini.py
has input from HanaokaYuzu/Gemini-API
Having input implies that the AI's code generation utilized it as one of many sources.
This program is licensed under the GNU GPL v3
xtekky/gpt4free: Copyright (C) 2023 xtekky
This program is free software: you can redistribute it and/or modify
it under the terms of the GNU General Public License as published by
the Free Software Foundation, either version 3 of the License, or
(at your option) any later version.
This program is distributed in the hope that it will be useful,
but WITHOUT ANY WARRANTY; without even the implied warranty of
MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
GNU General Public License for more details.
You should have received a copy of the GNU General Public License
along with this program. If not, see <https://www.gnu.org/licenses/>.
This project is licensed under GNU_GPL_v3.0. |