收集自网络,结合自身体验得出,虽然我更多是用的自己的 DeepSeek API,但是 R1 这种思考时,一个不想小心就能想个几千字的玩法,也是有点扛不住,复杂问题还是先找免费的问的差不多了,再用自己的 API 增加体验...
AI
本地 AI 图片视频搜索引擎——MaterialSearch
基于 AI 的本地素材搜索引擎。扫描本地的图片以及视频,可以用自然语言进行查找。 实现中文语义下的 以图搜图、截图搜视频、查找本地素材、根据文字描述匹配画面、视频帧搜索、根据画面描述搜索视频。找素材再也...
RTranslator – 一款 Android 开源离线本地实时同传翻译 APP
RTranslator 介绍 RTranslator 是一款适用于 Android 的开源、免费、离线、实时的翻译应用程序。RTranslator 使用 Meta 的开源 AI 模型 NLLB 进行翻译,使用 OpenAi 的开源 AI 模型 Whisper 进行语音识别,是一...
谷歌家AI Gemini 要开始收费了 – 看起来比OpenAI家的便宜呢
最近收到了谷歌的邮件 谷歌将于2024 年 5 月 2 日,开始对关联了 Cloud Billing 帐号的项目进行 Gemini API 请求计费。如果不切换到 Gemini 收费方案,免费方案下也可以享受对于自用已经满足够的免费额度,总的来...
使用 Langchain-Chatchat 构建自己的AI知识库
记录一下自己部署可离线使用的大语言模型本地知识库一键整合包 Langchain-Chatchat 的步骤。 Langchain-Chatchat 是一款支持联网在线搜索问答,使用本地或联网知识库问答,知识整理和管理的一体化工具。 Langcha...
基于 RWKV 的 AI角色扮演 WebUI
这是一个使用 Gradio 制作的基于 RWKV 的 AI 角色扮演对话的 WebUI,7B参数int8量化下仅需要7.6GB显存即可完美运行。配合N卡最新驱动的显存内存融合,基本一个10XX系以上的N卡就能扮演一个不错的AI对象。也不知道...
N卡 支持内存显存融合,AI模型训练不再会炸显存啦
目前AI训练中,相比算力,显存大小的限制才是最头疼的地方,算力低,结果最多是慢,只要显卡够便宜,可以通过堆数量实现,但是显存不够最低线,直接就跑不了,彻底没戏。而N卡在最近的驱动中帮大家解决了CUDA内存...
使用 CPU 本地安装部署运行 ChatGLM2-6B
ChatGLM2-6B 是一个清华开源的、支持中英双语的对话语言模型,基于GLM架构,具有62亿参数。结合模型量化技术,ChatGLM-6B可以本地安装部署运行在消费级的显卡上做模型的推理和训练(全量仅需13GB显存,INT4 量化...
API2D :Open AI ChatGPT 的替代 API 方案,附注册和使用教程
由于Open AI API (ChatGPT)付费困难,实体卡信用卡难度太大,而虚拟信用卡平台则风险也很高,再加上Open AI(ChatGPT)屏蔽了许多机房IP(虽然目前也在陆续解封机房使用API),因此使用门槛越来越高。无法直接...
本地安装部署运行 ChatGLM-6B 的常见问题解答以及后续优化
不敢称之为教程,只能算是分享一点自己本地安装部署运行 ChatGLM-6B 的过程中的心得和二次优化开发吧。主要是比如怎么防止GPU运行时爆显存,GPU运行时减少显存占用,一些常见的报错应该怎么解决,推理参数的调整...