世界のAIイノベーションの瞬間をお見逃しなく
毎日の3分AI業界トレンド
AI業界のマイルストーン
すべてのAIハードウェアをリストアップします。
AIマネタイズ事例の共有
AI画像生成マネタイズ事例
AIビデオ生成マネタイズ事例
AIオーディオ生成マネタイズ事例
AIコンテンツ作成マネタイズ事例
最新のAIチュートリアルを無料で共有
AIウェブサイトの総訪問数ランキングを表示
トラフィックによる最も急速に成長しているAIウェブサイトを追跡
トラフィックが大幅に減少しているAIウェブサイトに焦点を当てる
AIウェブサイトの週間訪問数ランキングを表示
米国のユーザーに最も人気のあるAIウェブサイト
中国のユーザーに最も人気のあるAIウェブサイト
インドのユーザーに最も人気のあるAIウェブサイト
ブラジルのユーザーに最も人気のあるAIウェブサイト
AI画像生成ウェブサイトの総訪問数ランキング
AIパーソナルアシスタントウェブサイトの総訪問数ランキング
AIキャラクター生成ウェブサイトの総訪問数ランキング
AIビデオ生成ウェブサイトの総訪問数ランキング
GitHubの人気のあるAIプロジェクトを総スター数でランキング
GitHubの人気のあるAIプロジェクトを成長率でランキング
GitHubの人気のあるAI開発者ランキング
GitHubの人気のあるAI組織ランキング
GitHubの人気のあるDeepseekオープンソースプロジェクト
GitHubの人気のあるTTSオープンソースプロジェクト
GitHubの人気のあるLLMオープンソースプロジェクト
GitHubの人気のあるChatGPTオープンソースプロジェクト
GitHubの人気のあるAIオープンソースプロジェクトの概要
ICIP2023: 3D-DDA: 3D Dual-Domain Attention For Brain Tumor Segmentation
Implementation of Vision Transformer, a simple way to achieve SOTA in vision classification with only a single transformer encoder, in Pytorch
RWKV (pronounced RwaKuv) is an RNN with great LLM performance, which can also be directly trained like a GPT transformer (parallelizable). We are at RWKV-7 "Goose". So it's combining the best of RNN and transformer - great performance, linear time, constant space (no kv-cache), fast training, infinite ctx_len, and free sentence embedding.
Implementation / replication of DALL-E, OpenAI's Text to Image Transformer, in Pytorch
A concise but complete full-attention transformer with a set of promising experimental features from various papers
Graph Attention Networks (https://arxiv.org/abs/1710.10903)
Pytorch implementation of the Graph Attention Network model by Veličković et. al (2017, https://arxiv.org/abs/1710.10903)
Show, Attend, and Tell | a PyTorch Tutorial to Image Captioning
Keras Attention Layer (Luong and Bahdanau scores).
My implementation of the original GAT paper (Veličković et al.). I've additionally included the playground.py file for visualizing the Cora dataset, GAT embeddings, an attention mechanism, and entropy histograms. I've supported both Cora (transductive) and PPI (inductive) examples!
Reformer, the efficient Transformer, in Pytorch