本番モデル
本番モデル (production model) は、本番環境での利用を目的としており、高速性と品質の両立を満たすよう設計されています。| 開発元 | モデルID | コンテキスト長 | Hugging Faceへのリンク | モデル評価レポート |
|---|---|---|---|---|
| DeepSeek | ||||
DeepSeek-R1-0528 | 32k トークン | Model card | LatticeFlow AI report | |
DeepSeek-V3-0324 | 32k トークン | Model card | LatticeFlow AI report | |
DeepSeek-V3.1 | 32k トークン | Model card | ||
DeepSeek-R1-Distill-Llama-70B | 128k トークン | Model card | ||
| Meta | ||||
Meta-Llama-3.3-70B-Instruct | 128k トークン | Model card | LatticeFlow AI report | |
Meta-Llama-3.1-8B-Instruct | 16k トークン | Model card | LatticeFlow AI report |
プレビューモデル
プレビューモデル (preview model) は、検証や開発者による実験用途を目的としています。本番環境での利用は推奨されません。これらのモデルは提供のためのリソースが限定的であり、短期間で提供終了となる可能性があります。| 開発元 | モデルID | コンテキスト長 | 最大ファイルサイズ1 | Hugging Faceへのリンク | モデル評価レポート |
|---|---|---|---|---|---|
| Meta | |||||
Llama-4-Maverick-17B-128E-Instruct | 128k トークン | Up to 5 images, each ≤ 20 MB | Model card | LatticeFlow AI report | |
| OpenAI | |||||
gpt-oss-120b | 128k トークン | Model card | |||
Whisper-Large-v3 | N/A | 25MB | Model card | ||
| Qwen | |||||
Qwen3-32B | 8k トークン | N/A | Model card | LatticeFlow AI report | |
| 東京科学大学 | |||||
Llama-3.3-Swallow-70B-Instruct-v0.4 | 16k トークン | N/A | Model card | ||
| Other | |||||
E5-Mistral-7B-Instruct | 4k トークン | N/A | Model card |
1Audioモデルに関する情報
