不错过全球AI革新的每一个时刻
每天三分钟关注AI行业趋势
AI行业大事记
列出所有AI硬件产品。
AI变现案例分享
AI图片制作变现案例分享
AI视频制作变现案例分享
AI音频制作变现案例分享
AI内容写作变现案例分享
免费分享最新AI教程内容
展示AI网站的总访问量排名
追踪AI网站访问量增长最快产品
关注访问量下降明显的AI网站
展示AI网站的周访问量排名
美国用户最喜欢的AI网站
中国用户最喜欢的AI网站
印度用户最喜欢的AI网站
巴西用户最喜欢的AI网站
AI图片生成网站总访问量榜单
AI个人助理网站总访问量榜单
AI角色生成网站总访问量榜单
AI视频生成网站总访问量榜单
热门AI项目总Start榜单
热门AI项目增速榜
热门AI开发者排名
热门AI组织排名榜单
热门deepseek开源项目
热门TTS开源项目
热门LLM开源项目
热门ChatGPT开源项目
github热门AI开源项目总览
发现与 Transformers 相关的最受欢迎的开源项目和工具,了解最新的开发趋势和创新。
21堂课,开启生成式AI之旅! https://microsoft.github.io/generative-ai-for-beginners/
60多个深度学习论文的实现/教程,并附带旁注;涵盖Transformer(原始版、XL、Switch、Feedback、ViT等)、优化器(Adam、AdaBelief、Sophia等)、GAN(CycleGAN、StyleGAN2等)、强化学习(PPO、DQN)、Capsule网络、知识蒸馏等。
统一高效微调100多个大型语言模型和视觉语言模型 (ACL 2024)
使用Pytorch实现视觉Transformer,这是一种仅用单个Transformer编码器就能轻松达到图像分类领域最先进水平(SOTA)的简易方法。
DocsGPT是一个开源的生成式AI工具,它帮助用户从知识来源获取可靠的答案,同时避免出现幻觉(即AI模型产生虚假信息)。它支持私密可靠的信息检索,并内置了工具和自主系统功能。
RWKV(发音为RwaKuv)是一个具有出色大语言模型性能的循环神经网络(RNN),它也可以像GPT Transformer一样直接训练(可并行化)。我们现在处于RWKV-7 "鹅"阶段。因此,它结合了RNN和Transformer的优点——性能卓越、线性时间复杂度、常数空间复杂度(无键值缓存)、快速训练、无限上下文长度以及免费的句子嵌入。
最先进的网页机器学习。无需服务器,即可直接在浏览器中运行Transformer模型!
机器学习工程公开课
正在进行大规模的Transformer模型研究训练
这个仓库包含我使用HuggingFace的Transformers库制作的演示程序。
使用 Mesh-TensorFlow 库实现模型并行 GPT-2 和 GPT-3 风格模型的方案。
在PaLM架构之上实现基于人类反馈的强化学习(RLHF)。简单来说,就是基于PaLM的ChatGPT。
在英特尔XPU(例如,配备iGPU和NPU的本地PC,以及Arc、Flex和Max等独立显卡)上加速本地大型语言模型(LLM)的推理和微调(例如LLaMA、Mistral、ChatGLM、Qwen、DeepSeek、Mixtral、Gemma、Phi、MiniCPM、Qwen-VL、MiniCPM-V等);与llama.cpp、Ollama、HuggingFace、LangChain、LlamaIndex、vLLM、DeepSpeed、Axolotl等无缝集成。
NeurIPS 2024最佳论文候选![GPT超越扩散模型?][视觉生成中的缩放规律?] 这是论文“视觉自回归建模:基于下一尺度预测的可扩展图像生成”的官方实现代码。这是一个*极其简单、用户友好且达到最先进水平*的自回归图像生成代码库!
BertViz:可视化NLP模型中的注意力机制(BERT、GPT2、BART等)
基于Megatron和DeepSpeed库,在GPU上实现模型并行自回归Transformer。
利用BERT和c-TF-IDF技术提取易于理解的主题。
这个资源库精心收集了关于人工智能(AI)的各种课程和资源链接。
使用Pytorch框架实现/复现OpenAI的文本转图像Transformer模型DALL-E
开放式聊天:利用不完美数据推进开源语言模型