diff --git a/.env.example b/.env.example
index 1a59167b270a6..6ef412f8dc988 100644
--- a/.env.example
+++ b/.env.example
@@ -106,6 +106,7 @@ OPENAI_API_KEY=sk-xxxxxxxxx
### DeepSeek AI ####
+# DEEPSEEK_PROXY_URL=https://api.deepseek.com/v1
# DEEPSEEK_API_KEY=xxxxxxxxxxxxxxxxxxxxxxxxxxxxx
### Qwen AI ####
diff --git a/README.ja-JP.md b/README.ja-JP.md
index 9b7b3c419d1dc..b8d48f421015b 100644
--- a/README.ja-JP.md
+++ b/README.ja-JP.md
@@ -302,14 +302,14 @@ Mr.🆖 AI エージェントマーケットプレイスでは、クリエイタ
-| 最近追加 | 説明 |
-| ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | --------------------------------------------------------------------------------------------------------------------------------- |
-| [SUNO 曲作支援ツール](https://lobechat.com/discover/assistant/suno-lyrics-assistant)
By **[sqkkyzx](https://github.com/sqkkyzx)** on **2025-01-26** | ユーザーのニーズに基づいて SUNO の曲作成パラメータを生成します
`歌詞作成` `音楽スタイル` `編曲` `パラメータ設定` |
-| [偉大なるビッグス・ディッカス](https://lobechat.com/discover/assistant/all-knowing)
By **[CGitwater](https://github.com/CGitwater)** on **2025-01-24** | 全能の知識の神
`ビッグス` `ディッカス` |
-| [PPT 制作達人](https://lobechat.com/discover/assistant/ppt-production-expert)
By **[patricleehua](https://github.com/patricleehua)** on **2025-01-24** | 高品質な PPT の迅速な制作と最適化に優れています
`ppt制作` `デザイン` `コンサルティング` `コンテンツ最適化` `ユーザーサポート` |
-| [OCR ドキュメント転写アシスタント](https://lobechat.com/discover/assistant/ocr-markdown)
By **[Liangpi000](https://github.com/Liangpi000)** on **2025-01-24** | 文書内容の転写と markdown フォーマットに優れています
`文書生成` `markdown` `フォーマット` `転写` `タスクガイド` |
-
-> 📊 Total agents: [**471** ](https://lobechat.com/discover/assistants)
+| 最近追加 | 説明 |
+| ------------------------------------------------------------------------------------------------------------------------------------------------------------ | --------------------------------------------------------------------------------------------------------------------------------------- |
+| [鋭い評論家](https://lobechat.com/discover/assistant/ruipingshi)
By **[Zippland](https://github.com/Zippland)** on **2025-02-04** | 鋭い評論と深い問題分析が得意
`評論` `社会的見解` `鋭い分析` |
+| [Python の天才](https://lobechat.com/discover/assistant/python-genius)
By **[novaspivack](https://github.com/novaspivack)** on **2025-02-04** | 高度な Python コーダー
`コード` `python` |
+| [SAT マスター](https://lobechat.com/discover/assistant/sat-teaching)
By **[iBz-04](https://github.com/iBz-04)** on **2025-02-04** | 1300 点以上のスコアを目指すデジタル SAT コーチングの専門家
`sat` `適性試験` |
+| [宇宙の啓示者](https://lobechat.com/discover/assistant/universal-god)
By **[GowayLee](https://github.com/GowayLee)** on **2025-02-04** | 時空を超えた知恵の神託、生命の本質を洞察する
`キャラクターデザイン` `aiキャラクター` `メタバース` `ロールプレイング` `知恵システム` |
+
+> 📊 Total agents: [**478** ](https://lobechat.com/discover/assistants)
diff --git a/README.md b/README.md
index a976fc1364993..fa47b0e4388dc 100644
--- a/README.md
+++ b/README.md
@@ -319,14 +319,14 @@ Our marketplace is not just a showcase platform but also a collaborative space.
-| Recent Submits | Description |
-| -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------- |
-| [SUNO Song Creation Assistant](https://lobechat.com/discover/assistant/suno-lyrics-assistant)
By **[sqkkyzx](https://github.com/sqkkyzx)** on **2025-01-26** | Can generate SUNO song creation parameters based on user needs
`lyric-creation` `music-style` `arrangement` `parameter-settings` |
-| [The Great Biggus Dickus](https://lobechat.com/discover/assistant/all-knowing)
By **[CGitwater](https://github.com/CGitwater)** on **2025-01-24** | The almighty powerful god of klnowledge
`biggus` `diccus` |
-| [PPT Production Expert](https://lobechat.com/discover/assistant/ppt-production-expert)
By **[patricleehua](https://github.com/patricleehua)** on **2025-01-24** | Skilled in the rapid production and optimization of high-quality PPTs
`ppt-production` `design` `consulting` `content-optimization` `user-support` |
-| [OCR Document Transcription Assistant](https://lobechat.com/discover/assistant/ocr-markdown)
By **[Liangpi000](https://github.com/Liangpi000)** on **2025-01-24** | Specializes in document content transcription and markdown formatting
`document-generation` `markdown` `formatting` `transcription` `task-guidance` |
-
-> 📊 Total agents: [**471** ](https://lobechat.com/discover/assistants)
+| Recent Submits | Description |
+| ------------------------------------------------------------------------------------------------------------------------------------------------------------ | ----------------------------------------------------------------------------------------------------------------------------------------------------- |
+| [Sharp Commentator](https://lobechat.com/discover/assistant/ruipingshi)
By **[Zippland](https://github.com/Zippland)** on **2025-02-04** | Specializes in sharp commentary and in-depth analysis of issues
`commentary` `social-perspectives` `sharp-analysis` |
+| [Python Genius](https://lobechat.com/discover/assistant/python-genius)
By **[novaspivack](https://github.com/novaspivack)** on **2025-02-04** | An advanced python coder
`code` `python` |
+| [SAT master](https://lobechat.com/discover/assistant/sat-teaching)
By **[iBz-04](https://github.com/iBz-04)** on **2025-02-04** | Expert in Digital SAT coaching for 1300+ scores
`sat` `aptitude-test` |
+| [Cosmic Oracle](https://lobechat.com/discover/assistant/universal-god)
By **[GowayLee](https://github.com/GowayLee)** on **2025-02-04** | Wisdom from across time and space, insight into the essence of life
`character-design` `ai-characters` `metaverse` `role-playing` `wisdom-system` |
+
+> 📊 Total agents: [**478** ](https://lobechat.com/discover/assistants)
diff --git a/README.zh-CN.md b/README.zh-CN.md
index 2cceb0d5309c3..03dc0d2772f44 100644
--- a/README.zh-CN.md
+++ b/README.zh-CN.md
@@ -308,14 +308,14 @@ Mr.🆖 AI 的插件生态系统是其核心功能的重要扩展,它极大地
-| 最近新增 | 描述 |
-| --------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------- |
-| [SUNO 歌曲创作助手](https://lobechat.com/discover/assistant/suno-lyrics-assistant)
By **[sqkkyzx](https://github.com/sqkkyzx)** on **2025-01-26** | 能根据用户需求生成 SUNO 歌曲创作参数
`歌词创作` `音乐风格` `编曲` `参数设置` |
-| [伟大的比古斯・迪克斯](https://lobechat.com/discover/assistant/all-knowing)
By **[CGitwater](https://github.com/CGitwater)** on **2025-01-24** | 全能强大的知识之神
`比古斯` `迪克斯` |
-| [PPT 制作达人](https://lobechat.com/discover/assistant/ppt-production-expert)
By **[patricleehua](https://github.com/patricleehua)** on **2025-01-24** | 擅长高质量 PPT 的快速制作和优化
`ppt制作` `设计` `咨询` `内容优化` `用户支持` |
-| [OCR 文档转录助手](https://lobechat.com/discover/assistant/ocr-markdown)
By **[Liangpi000](https://github.com/Liangpi000)** on **2025-01-24** | 擅长文件内容转录与 markdown 格式
`文档生成` `markdown` `格式化` `转录` `任务指导` |
-
-> 📊 Total agents: [**471** ](https://lobechat.com/discover/assistants)
+| 最近新增 | 描述 |
+| ---------------------------------------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------- |
+| [锐评师](https://lobechat.com/discover/assistant/ruipingshi)
By **[Zippland](https://github.com/Zippland)** on **2025-02-04** | 擅长犀利点评与深度剖析问题
`评论` `社会观点` `尖锐分析` |
+| [Python 天才](https://lobechat.com/discover/assistant/python-genius)
By **[novaspivack](https://github.com/novaspivack)** on **2025-02-04** | 一名高级 Python 编程者
`代码` `python` |
+| [SAT 大师](https://lobechat.com/discover/assistant/sat-teaching)
By **[iBz-04](https://github.com/iBz-04)** on **2025-02-04** | 数字 SAT 辅导专家,帮助学生取得 1300 + 分数
`sat` `能力测试` |
+| [宇宙启示者](https://lobechat.com/discover/assistant/universal-god)
By **[GowayLee](https://github.com/GowayLee)** on **2025-02-04** | 跨时空的智慧神谕,洞悉生命本质
`角色设计` `ai角色` `元宇宙` `角色扮演` `智慧系统` |
+
+> 📊 Total agents: [**478** ](https://lobechat.com/discover/assistants)
diff --git a/changelog/v1.json b/changelog/v1.json
index de67f6ee8862b..7a78f535a1cb1 100644
--- a/changelog/v1.json
+++ b/changelog/v1.json
@@ -1,4 +1,25 @@
[
+ {
+ "children": {
+ "improvements": ["Add/Update Aliyun Cloud Models, update GitHub Models."]
+ },
+ "date": "2025-02-04",
+ "version": "1.50.5"
+ },
+ {
+ "children": {
+ "fixes": ["Fix invalid utf8 character."]
+ },
+ "date": "2025-02-04",
+ "version": "1.50.4"
+ },
+ {
+ "children": {
+ "improvements": ["Update model locale."]
+ },
+ "date": "2025-02-04",
+ "version": "1.50.3"
+ },
{
"children": {
"fixes": ["Fix o1 series calling issue."]
diff --git a/docs/changelog/2025-01-22-new-ai-provider.mdx b/docs/changelog/2025-01-22-new-ai-provider.mdx
index da4d67802fe40..8caa6e5f74d0c 100644
--- a/docs/changelog/2025-01-22-new-ai-provider.mdx
+++ b/docs/changelog/2025-01-22-new-ai-provider.mdx
@@ -1,8 +1,8 @@
---
title: LobeChat Launches New AI Provider Management System
description: >-
- LobeChat has revamped its AI Provider Management System, now supporting custom AI providers and models.
-
+ LobeChat has revamped its AI Provider Management System, now supporting custom
+ AI providers and models.
tags:
- LobeChat
- AI Provider
diff --git a/docs/changelog/2025-02-02-deepseek-r1.mdx b/docs/changelog/2025-02-02-deepseek-r1.mdx
new file mode 100644
index 0000000000000..970f5faac23b9
--- /dev/null
+++ b/docs/changelog/2025-02-02-deepseek-r1.mdx
@@ -0,0 +1,33 @@
+---
+title: >-
+ LobeChat Integrates DeepSeek R1, Bringing a Revolutionary Chain of Thought Experience
+
+description: >-
+ LobeChat v1.49.12 fully supports the DeepSeek R1 model, providing users with an unprecedented interactive experience in the chain of thought.
+
+tags:
+ - LobeChat
+ - DeepSeek
+ - Chain of Thought
+---
+
+# Perfect Integration of DeepSeek R1 and it's Deep Thinking Experience 🎉
+
+After nearly 10 days of meticulous refinement, LobeChat has fully integrated the DeepSeek R1 model in version v1.49.12, offering users a revolutionary interactive experience in the chain of thought!
+
+## 🚀 Major Updates
+
+- 🤯 **Comprehensive Support for DeepSeek R1**: Now fully integrated in both the Community and Cloud versions ([lobechat.com](https://lobechat.com)).
+- 🧠 **Real-Time Chain of Thought Display**: Transparently presents the AI's reasoning process, making the resolution of complex issues clear and visible.
+- ⚡️ **Deep Thinking Experience**: Utilizing Chain of Thought technology, it provides more insightful AI conversations.
+- 💫 **Intuitive Problem Analysis**: Makes the analysis of complex issues clear and easy to understand.
+
+## 🌟 How to Use
+
+1. Upgrade to LobeChat v1.49.12 or visit [lobechat.com](https://lobechat.com).
+2. Select the DeepSeek R1 model in the settings.
+3. Experience a whole new level of intelligent conversation!
+
+## 📢 Feedback and Support
+
+If you encounter any issues while using the application or have suggestions for new features, feel free to engage with us through GitHub Discussions. Let's work together to create a better LobeChat!
diff --git a/docs/changelog/2025-02-02-deepseek-r1.zh-CN.mdx b/docs/changelog/2025-02-02-deepseek-r1.zh-CN.mdx
new file mode 100644
index 0000000000000..c6ca15e1870a9
--- /dev/null
+++ b/docs/changelog/2025-02-02-deepseek-r1.zh-CN.mdx
@@ -0,0 +1,29 @@
+---
+title: LobeChat 重磅集成 DeepSeek R1,带来革命性思维链体验
+description: LobeChat v1.49.12 已完整支持 DeepSeek R1 模型,为用户带来前所未有的思维链交互体验
+tags:
+ - DeepSeek R1
+ - CoT
+ - 思维链
+---
+
+# 完美集成 DeepSeek R1 ,开启思维链新体验
+
+经过近 10 天的精心打磨,LobeChat 已在 v1.49.12 版本中完整集成了 DeepSeek R1 模型,为用户带来革命性的思维链交互体验!
+
+## 🚀 重大更新
+
+- 🤯 **DeepSeek R1 全面支持**: 现已在社区版与 Cloud 版([lobechat.com](https://lobechat.com))中完整接入
+- 🧠 **实时思维链展示**: 透明呈现 AI 的推理过程,让复杂问题的解决过程清晰可见
+- ⚡️ **深度思考体验**: 通过 Chain of Thought 技术,带来更具洞察力的 AI 对话
+- 💫 **直观的问题解析**: 让复杂问题的分析过程变得清晰易懂
+
+## 🌟 使用方式
+
+1. 升级到 LobeChat v1.49.12 或访问 [lobechat.com](https://lobechat.com)
+2. 在设置中选择 DeepSeek R1 模型
+3. 开启全新的智能对话体验!
+
+## 📢 反馈与支持
+
+如果您在使用过程中遇到任何问题,或对新功能有任何建议,欢迎通过 GitHub Discussions 与我们交流。让我们一起打造更好的 LobeChat!
diff --git a/docs/changelog/index.json b/docs/changelog/index.json
index 9749e127eb104..6a5f5236e71ec 100644
--- a/docs/changelog/index.json
+++ b/docs/changelog/index.json
@@ -2,6 +2,12 @@
"$schema": "https://github.com/lobehub/lobe-chat/blob/main/docs/changelog/schema.json",
"cloud": [],
"community": [
+ {
+ "image": "https://github.com/user-attachments/assets/5fe4c373-ebd0-42a9-bdca-0ab7e0a2e747",
+ "id": "2025-02-02-deepseek-r1",
+ "date": "2025-02-02",
+ "versionRange": ["1.47.8", "1.49.12"]
+ },
{
"image": "https://github.com/user-attachments/assets/7350f211-61ce-488e-b0e2-f0fcac25caeb",
"id": "2025-01-22-new-ai-provider",
diff --git a/docs/self-hosting/environment-variables/model-provider.mdx b/docs/self-hosting/environment-variables/model-provider.mdx
index 91e829a3d5ec0..aa41f2ff90393 100644
--- a/docs/self-hosting/environment-variables/model-provider.mdx
+++ b/docs/self-hosting/environment-variables/model-provider.mdx
@@ -169,6 +169,13 @@ If you need to use Azure OpenAI to provide model services, you can refer to the
## DeepSeek AI
+### `DEEPSEEK_PROXY_URL`
+
+- Type: Optional
+- Description: If you manually configure the DeepSeek API proxy, you can use this configuration item to override the default DeepSeek API request base URL
+- Default: -
+- Example: `https://xxxx.models.ai.azure.com/v1`
+
### `DEEPSEEK_API_KEY`
- Type: Required
diff --git a/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx b/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx
index 68c010d349707..7969b08efe644 100644
--- a/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx
+++ b/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx
@@ -167,6 +167,13 @@ Mr.🆖 AI 在部署时提供了丰富的模型服务商相关的环境变量,
## DeepSeek AI
+### `DEEPSEEK_PROXY_URL`
+
+- 类型:可选
+- 描述:如果您手动配置了 DeepSeek API 代理,可以使用此配置项覆盖默认的 DeepSeek API 请求基础 URL
+- 默认值: -
+- 示例: `https://xxxx.models.ai.azure.com/v1`
+
### `DEEPSEEK_API_KEY`
- 类型:必选
diff --git a/docs/self-hosting/server-database/docker-compose.mdx b/docs/self-hosting/server-database/docker-compose.mdx
index 19e31f797d90e..4fadfc72212f7 100644
--- a/docs/self-hosting/server-database/docker-compose.mdx
+++ b/docs/self-hosting/server-database/docker-compose.mdx
@@ -198,12 +198,12 @@ The script supports the following deployment modes; please choose the appropriat
In domain mode, you need to complete the reverse proxy configuration and ensure that the LAN/public can access the following services. Please use a reverse proxy to map the following service ports to the domain names:
- | Domain | Proxy Port | Required |
- | --------------------- | ---------- | -------- |
- | `lobe.example.com` | `3210` | Yes |
- | `auth-ui.example.com` | `8000` | Yes |
- | `s3-api.example.com` | `9000` | Yes |
- | `s3-ui.example.com` | `9001` | No |
+ | Domain | Proxy Port | Required |
+ | ---------------------- | ---------- | -------- |
+ | `lobe.example.com` | `3210` | Yes |
+ | `auth.example.com` | `8000` | Yes |
+ | `minio.example.com` | `9000` | Yes |
+ | `minio-ui.example.com` | `9001` | |
If you are using panel software like [APanel](https://www.bt.cn/) for reverse proxy configuration,
@@ -226,8 +226,8 @@ The script supports the following deployment modes; please choose the appropriat
In domain mode, you need to complete the following configurations based on script prompts:
- Domain setup for the LobeChat service: `lobe.example.com`
- - Domain setup for the Minio service: `s3-api.example.com`
- - Domain setup for the Casdoor service: `auth-ui.example.com`
+ - Domain setup for the Minio service: `minio.example.com`
+ - Domain setup for the Casdoor service: `auth.example.com`
- Choose the access protocol: `http` or `https`
- Regenerate secure keys: We highly recommend regenerating the secure keys; if you lack the key generation library required by the script, we suggest referring to the [Custom Deployment](#custom-deployment) section for key modifications.
@@ -256,11 +256,11 @@ The script supports the following deployment modes; please choose the appropriat
- Username: user
- Password: 837e26
Casdoor:
- - URL: https://auth-ui.example.com
+ - URL: https://auth.example.com
- Username: admin
- Password: 837e26
Minio:
- - URL: https://s3-api.example.com
+ - URL: https://minio.example.com
- Username: admin
- Password: dbac8440
```
@@ -336,7 +336,7 @@ Now, we will introduce the necessary configurations for running these services:
- LobeChat requires communication with Casdoor, so you need to configure Casdoor's Issuer.
```env
-AUTH_CASDOOR_ISSUER=https://auth-ui.example.com
+AUTH_CASDOOR_ISSUER=https://auth.example.com
```
This configuration will affect LobeChat's login authentication service, and you need to ensure that the URL of the Casdoor service is correct. You can find common manifestations and solutions for errors in this configuration in the [FAQ](#faq).
@@ -346,13 +346,13 @@ This configuration will affect LobeChat's login authentication service, and you
Please add a line in the `Authentication -> Application` -> `` -> `Redirect URI` in Casdoor's web panel:
```
-https://auth-ui.example.com/api/auth/callback/casdoor
+https://auth.example.com/api/auth/callback/casdoor
```
- Casdoor needs to provide the Origin information for access in the environment variables:
```env
-origin=https://auth-ui.example.com
+origin=https://auth.example.com
```
2. MinIO
@@ -360,8 +360,8 @@ origin=https://auth-ui.example.com
- LobeChat needs to provide a public access URL for object files for the LLM service provider, hence you need to configure MinIO's Endpoint.
```env
-S3_PUBLIC_DOMAIN=https://s3-api.example.com
-S3_ENDPOINT=https://s3-api.example.com
+S3_PUBLIC_DOMAIN=https://minio.example.com
+S3_ENDPOINT=https://minio.example.com
```
3. PostgreSQL
@@ -397,9 +397,9 @@ Solutions:
- Please refer to the reverse proxy configuration notes in the [Domain Mode](#domain-mode) section.
-- A direct troubleshooting method is to access `https://auth-ui.example.com/.well-known/openid-configuration` directly; if:
+- A direct troubleshooting method is to access `https://auth.example.com/.well-known/openid-configuration` directly; if:
- Non-JSON format data is returned, it indicates your reverse proxy configuration is incorrect.
- - If the returned JSON format data contains an `"issuer": "URL"` field that does not match your configured `https://auth-ui.example.com`, it indicates your environment variable configuration is incorrect.
+ - If the returned JSON format data contains an `"issuer": "URL"` field that does not match your configured `https://auth.example.com`, it indicates your environment variable configuration is incorrect.
- TypeError: fetch failed
@@ -413,7 +413,7 @@ Solutions:
- Check whether your authentication service is running properly and whether LobeChat's network can reach the authentication service.
-- A straightforward troubleshooting method is to use the `curl` command in the LobeChat container terminal to access your authentication service at `https://auth-ui.example.com/.well-known/openid-configuration`. If JSON format data is returned, it indicates your authentication service is functioning correctly.
+- A straightforward troubleshooting method is to use the `curl` command in the LobeChat container terminal to access your authentication service at `https://auth.example.com/.well-known/openid-configuration`. If JSON format data is returned, it indicates your authentication service is functioning correctly.
````markdown
## Extended Configuration
@@ -490,9 +490,9 @@ In the following, it is assumed that in addition to the above services, you are
The domain and corresponding service port descriptions are as follows:
- `lobe.example.com`: This is your LobeChat service domain, which needs to reverse proxy to the LobeChat service port, default is `3210`.
-- `auth-ui.example.com`: This is your Logto UI domain, which needs to reverse proxy to the Logto WebUI service port, default is `8000`.
-- `s3-api.example.com`: This is your MinIO API domain, which needs to reverse proxy to the MinIO API service port, default is `9000`.
-- `s3-ui.example.com`: Optional, this is your MinIO UI domain, which needs to reverse proxy to the MinIO WebUI service port, default is `9001`.
+- `auth.example.com`: This is your Logto UI domain, which needs to reverse proxy to the Logto WebUI service port, default is `8000`.
+- `minio.example.com`: This is your MinIO API domain, which needs to reverse proxy to the MinIO API service port, default is `9000`.
+- `minio-ui.example.com`: Optional, this is your MinIO UI domain, which needs to reverse proxy to the MinIO WebUI service port, default is `9001`.
#### Configuration File
@@ -518,7 +518,7 @@ Next, modify the configuration files to achieve domain release.
```
2. Modify the `origin` field of `casdoor`.
```yaml
- origin: 'https://auth-ui.example.com'
+ origin: 'https://auth.example.com'
```
3. Modify the `environment` field of `lobe`.
```yaml
@@ -532,15 +532,15 @@ Next, modify the configuration files to achieve domain release.
- 'AUTH_URL=https://lobe.example.com/api/auth'
# - 'AUTH_CASDOOR_ISSUER=http://localhost:${CASDOOR_PORT}'
- - 'AUTH_CASDOOR_ISSUER=https://auth-ui.example.com'
+ - 'AUTH_CASDOOR_ISSUER=https://auth.example.com'
- 'DATABASE_URL=postgresql://postgres:${POSTGRES_PASSWORD}@postgresql:5432/${LOBE_DB_NAME}'
# - 'S3_ENDPOINT=http://localhost:${MINIO_PORT}'
- - 'S3_ENDPOINT=https://s3-api.example.com'
+ - 'S3_ENDPOINT=https://minio.example.com'
- 'S3_BUCKET=${MINIO_LOBE_BUCKET}'
# - 'S3_PUBLIC_DOMAIN=http://localhost:${MINIO_PORT}'
- - 'S3_PUBLIC_DOMAIN=https://s3-api.example.com'
+ - 'S3_PUBLIC_DOMAIN=https://minio.example.com'
- 'S3_ENABLE_PATH_STYLE=1'
- 'LLM_VISION_IMAGE_USE_BASE64=1'
@@ -582,7 +582,7 @@ docker compose up -d # Restart
You first need to access the WebUI for configuration:
-- If you have set up the reverse proxy as mentioned before, open `https://auth-ui.example.com`
+- If you have set up the reverse proxy as mentioned before, open `https://auth.example.com`
- Otherwise, after port mapping, open `http://localhost:8000`
Log in to the admin account:
@@ -621,7 +621,7 @@ This article uses MinIO as an example to explain the configuration process. If y
You first need to access the WebUI for configuration:
-- If you have set up the reverse proxy as mentioned before, open `https://s3-ui.example.com`
+- If you have set up the reverse proxy as mentioned before, open `https://minio-ui.example.com`
- Otherwise, after port mapping, open `http://localhost:9001`
1. Enter the `MINIO_ROOT_USER` and `MINIO_ROOT_PASSWORD` you set in the login interface, then click login.
@@ -745,7 +745,7 @@ services:
driverName: 'postgres'
dataSourceName: 'user=postgres password=${POSTGRES_PASSWORD} host=postgresql port=5432 sslmode=disable dbname=casdoor'
# origin: 'http://localhost:${CASDOOR_PORT}'
- origin: 'https://auth-ui.example.com'
+ origin: 'https://auth.example.com'
runmode: 'dev'
volumes:
- ./init_data.json:/init_data.json
@@ -775,15 +775,15 @@ services:
- 'AUTH_URL=https://lobe.example.com/api/auth'
# - 'AUTH_CASDOOR_ISSUER=http://localhost:${CASDOOR_PORT}'
- - 'AUTH_CASDOOR_ISSUER=https://auth-ui.example.com'
+ - 'AUTH_CASDOOR_ISSUER=https://auth.example.com'
- 'DATABASE_URL=postgresql://postgres:${POSTGRES_PASSWORD}@postgresql:5432/${LOBE_DB_NAME}'
# - 'S3_ENDPOINT=http://localhost:${MINIO_PORT}'
- - 'S3_ENDPOINT=https://s3-api.example.com'
+ - 'S3_ENDPOINT=https://minio.example.com'
- 'S3_BUCKET=${MINIO_LOBE_BUCKET}'
# - 'S3_PUBLIC_DOMAIN=http://localhost:${MINIO_PORT}'
- - 'S3_PUBLIC_DOMAIN=https://s3-api.example.com'
+ - 'S3_PUBLIC_DOMAIN=https://minio.example.com'
- 'S3_ENABLE_PATH_STYLE=1'
- 'LLM_VISION_IMAGE_USE_BASE64=1'
diff --git a/docs/self-hosting/server-database/docker-compose.zh-CN.mdx b/docs/self-hosting/server-database/docker-compose.zh-CN.mdx
index 4df5901f3abb4..ae1e952483d32 100644
--- a/docs/self-hosting/server-database/docker-compose.zh-CN.mdx
+++ b/docs/self-hosting/server-database/docker-compose.zh-CN.mdx
@@ -199,12 +199,12 @@ bash <(curl -fsSL https://lobe.li/setup.sh) -l zh_CN
在域名模式中,你需要完成反向代理配置,并确保局域网 / 公网能访问到以下服务。请使用反向代理将以下服务端口映射到域名:
- | 域名 | 反代端口 | 是否必选 |
- | --------------------- | ------ | ---- |
- | `lobe.example.com` | `3210` | 必选 |
- | `auth-ui.example.com` | `8000` | 必选 |
- | `s3-api.example.com` | `9000` | 必选 |
- | `s3-ui.example.com` | `9001` | |
+ | 域名 | 反代端口 | 是否必选 |
+ | ---------------------- | ------ | ---- |
+ | `lobe.example.com` | `3210` | 必选 |
+ | `auth.example.com` | `8000` | 必选 |
+ | `minio.example.com` | `9000` | 必选 |
+ | `minio-ui.example.com` | `9001` | |
如果你使用如 [宝塔面板](https://www.bt.cn/) 等面板软件进行反向代理配置,
@@ -227,8 +227,8 @@ bash <(curl -fsSL https://lobe.li/setup.sh) -l zh_CN
在域名模式中,你需要根据脚本提示完成:
- LobeChat 服务的域名设置:`lobe.example.com`
- - Minio 服务的域名设置:`s3-api.example.com`
- - Casdoor 服务的域名设置:`auth-ui.example.com`
+ - Minio 服务的域名设置:`minio.example.com`
+ - Casdoor 服务的域名设置:`auth.example.com`
- 选择访问协议:`http` 或 `https`
- 安全密钥重新生成:我们强烈建议你重新生成安全密钥,如果你缺少脚本所需的密钥生成库,我们建议你参考 [自定义部署](#自定义部署) 章节对密钥进行修改。
@@ -257,11 +257,11 @@ bash <(curl -fsSL https://lobe.li/setup.sh) -l zh_CN
- Username: user
- Password: 837e26
Casdoor:
- - URL: https://auth-ui.example.com
+ - URL: https://auth.example.com
- Username: admin
- Password: 837e26
Minio:
- - URL: https://s3-api.example.com
+ - URL: https://minio.example.com
- Username: admin
- Password: dbac8440
```
@@ -338,7 +338,7 @@ mv .env.zh-CN.example .env
- LobeChat 需要与 Casdoor 通讯,因此你需要配置 Casdoor 的 Issuer 。
```env
-AUTH_CASDOOR_ISSUER=https://auth-ui.example.com
+AUTH_CASDOOR_ISSUER=https://auth.example.com
```
该配置会影响 LobeChat 的登录鉴权服务,你需要确保 Casdoor 服务的地址正确。
@@ -349,13 +349,13 @@ AUTH_CASDOOR_ISSUER=https://auth-ui.example.com
请在 Casdoor 的 Web 面板的 `身份认证 -> 应用` -> `<应用ID,默认为 app-built-in>` -> `重定向URL` 中添加一行:
```
-https://auth-ui.example.com/api/auth/callback/casdoor
+https://auth.example.com/api/auth/callback/casdoor
```
- Casdoor 需要在环境变量中提供访问的 Origin 信息:
```env
-origin=https://auth-ui.example.com
+origin=https://auth.example.com
```
2. MinIO
@@ -363,8 +363,8 @@ origin=https://auth-ui.example.com
- LobeChat 需要为 LLM 服务提供商提供文件对象的公网访问地址,因此你需要配置 MinIO 的 Endpoint 。
```env
-S3_PUBLIC_DOMAIN=https://s3-api.example.com
-S3_ENDPOINT=https://s3-api.example.com
+S3_PUBLIC_DOMAIN=https://minio.example.com
+S3_ENDPOINT=https://minio.example.com
```
3. PostgreSQL
@@ -400,9 +400,9 @@ lobe-chat | [auth][error] r3: "response" is not a conform Authorization Ser
- 请参考 [域名模式](#域名模式) 章节中的反向代理配置注意事项。
-- 一个直接的排查方式,你可以直接访问 `https://auth-ui.example.com/.well-known/openid-configuration`,如果
+- 一个直接的排查方式,你可以直接访问 `https://auth.example.com/.well-known/openid-configuration`,如果
- 返回了非 JSON 格式的数据,则说明你的反向代理配置错误。
- - 如果返回的 JSON 格式数据中的 `"issuer": "URL"` 字段不是你配置的 `https://auth-ui.example.com`,则说明你的环境变量配置错误。
+ - 如果返回的 JSON 格式数据中的 `"issuer": "URL"` 字段不是你配置的 `https://auth.example.com`,则说明你的环境变量配置错误。
- TypeError: fetch failed
@@ -416,7 +416,7 @@ lobe-chat | [auth][error] TypeError: fetch failed
- 请检查你的鉴权服务是否正常运行,以及 LobeChat 所在的网络是否能够访问到鉴权服务。
-- 一个直接的排查方式,你可以在 LobeChat 容器的终端中,使用 `curl` 命令访问你的鉴权服务 `https://auth-ui.example.com/.well-known/openid-configuration`,如果返回了 JSON 格式的数据,则说明你的鉴权服务正常运行。
+- 一个直接的排查方式,你可以在 LobeChat 容器的终端中,使用 `curl` 命令访问你的鉴权服务 `https://auth.example.com/.well-known/openid-configuration`,如果返回了 JSON 格式的数据,则说明你的鉴权服务正常运行。
## 拓展配置
@@ -494,14 +494,14 @@ lobe-chat | [auth][error] TypeError: fetch failed
域名和配套服务端口说明如下:
- `lobe.example.com`:为你的 LobeChat 服务端域名,需要反向代理到 LobeChat 服务端口,默认为 `3210`
-- `auth-ui.example.com`:为你的 Logto UI 域名,需要反向代理到 Logto WebUI 服务端口,默认为 `8000`
-- `s3-api.example.com`:为你的 MinIO API 域名,需要反向代理到 MinIO API 服务端口,默认为 `9000`
-- `s3-ui.example.com`:可选,为你的 MinIO UI 域名,需要反向代理到 MinIO WebUI 服务端口,默认为 `9001`
+- `auth.example.com`:为你的 Logto UI 域名,需要反向代理到 Logto WebUI 服务端口,默认为 `8000`
+- `minio.example.com`:为你的 MinIO API 域名,需要反向代理到 MinIO API 服务端口,默认为 `9000`
+- `minio-ui.example.com`:可选,为你的 MinIO UI 域名,需要反向代理到 MinIO WebUI 服务端口,默认为 `9001`
#### 配置文件
```sh
-bash <(curl -fsSL https://raw.githubusercontent.com/lobehub/lobe-chat/HEAD/docker-compose/local/setup.sh) -f -l zh_CN
+bash <(curl -fsSL https://lobe.li/setup.sh) -l zh_CN
docker compose up -d
```
@@ -522,7 +522,7 @@ docker compose up -d
```
2. 修改`casdoor`的`origin`字段。
```yaml
- origin: 'https://auth-ui.example.com'
+ origin: 'https://auth.example.com'
```
3. 修改`lobe`的`environment`字段。
```yaml
@@ -536,15 +536,15 @@ docker compose up -d
- 'AUTH_URL=https://lobe.example.com/api/auth'
# - 'AUTH_CASDOOR_ISSUER=http://localhost:${CASDOOR_PORT}'
- - 'AUTH_CASDOOR_ISSUER=https://auth-ui.example.com'
+ - 'AUTH_CASDOOR_ISSUER=https://auth.example.com'
- 'DATABASE_URL=postgresql://postgres:${POSTGRES_PASSWORD}@postgresql:5432/${LOBE_DB_NAME}'
# - 'S3_ENDPOINT=http://localhost:${MINIO_PORT}'
- - 'S3_ENDPOINT=https://s3-api.example.com'
+ - 'S3_ENDPOINT=https://minio.example.com'
- 'S3_BUCKET=${MINIO_LOBE_BUCKET}'
# - 'S3_PUBLIC_DOMAIN=http://localhost:${MINIO_PORT}'
- - 'S3_PUBLIC_DOMAIN=https://s3-api.example.com'
+ - 'S3_PUBLIC_DOMAIN=https://minio.example.com'
- 'S3_ENABLE_PATH_STYLE=1'
- 'LLM_VISION_IMAGE_USE_BASE64=1'
@@ -588,7 +588,7 @@ docker compose up -d # 重新启动
你需要首先访问 WebUI 来进行配置:
-- 如果你按照前文配置了反向代理,打开 `https://auth-ui.example.com`
+- 如果你按照前文配置了反向代理,打开 `https://auth.example.com`
- 否则,请在进行端口映射后,打开 `http://localhost:8000`
登录管理员账户
@@ -627,7 +627,7 @@ docker compose up -d # 重新启动
你需要首先访问 WebUI 来进行配置:
-- 如果你按照前文配置了反向代理,打开 `https://s3-ui.example.com`
+- 如果你按照前文配置了反向代理,打开 `https://minio-ui.example.com`
- 否则,请在进行端口映射后,打开 `http://localhost:9001`
1. 在登录界面输入你设置的 `MINIO_ROOT_USER` 和 `MINIO_ROOT_PASSWORD`,然后点击登录
@@ -754,7 +754,7 @@ services:
driverName: 'postgres'
dataSourceName: 'user=postgres password=${POSTGRES_PASSWORD} host=postgresql port=5432 sslmode=disable dbname=casdoor'
# origin: 'http://localhost:${CASDOOR_PORT}'
- origin: 'https://auth-ui.example.com'
+ origin: 'https://auth.example.com'
runmode: 'dev'
volumes:
- ./init_data.json:/init_data.json
@@ -784,15 +784,15 @@ services:
- 'AUTH_URL=https://lobe.example.com/api/auth'
# - 'AUTH_CASDOOR_ISSUER=http://localhost:${CASDOOR_PORT}'
- - 'AUTH_CASDOOR_ISSUER=https://auth-ui.example.com'
+ - 'AUTH_CASDOOR_ISSUER=https://auth.example.com'
- 'DATABASE_URL=postgresql://postgres:${POSTGRES_PASSWORD}@postgresql:5432/${LOBE_DB_NAME}'
# - 'S3_ENDPOINT=http://localhost:${MINIO_PORT}'
- - 'S3_ENDPOINT=https://s3-api.example.com'
+ - 'S3_ENDPOINT=https://minio.example.com'
- 'S3_BUCKET=${MINIO_LOBE_BUCKET}'
# - 'S3_PUBLIC_DOMAIN=http://localhost:${MINIO_PORT}'
- - 'S3_PUBLIC_DOMAIN=https://s3-api.example.com'
+ - 'S3_PUBLIC_DOMAIN=https://minio.example.com'
- 'S3_ENABLE_PATH_STYLE=1'
- 'LLM_VISION_IMAGE_USE_BASE64=1'
diff --git a/locales/ar/models.json b/locales/ar/models.json
index 1bda39a20e910..407eecd895532 100644
--- a/locales/ar/models.json
+++ b/locales/ar/models.json
@@ -323,21 +323,15 @@
"abab7-chat-preview": {
"description": "تحسين كبير في قدرات النموذج مقارنة بسلسلة abab6.5 في النصوص الطويلة، الرياضيات، والكتابة."
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "نموذج استدعاء الدوال مفتوح المصدر من Fireworks، يوفر قدرة تنفيذ تعليمات ممتازة وخصائص قابلة للتخصيص."
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1 هو نموذج لغة كبير متقدم، تم تحسينه من خلال التعلم المعزز وبيانات البدء البارد، ويتميز بأداء ممتاز في الاستدلال، والرياضيات، والبرمجة."
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "Firefunction-v2 من شركة Fireworks هو نموذج استدعاء دوال عالي الأداء، تم تطويره بناءً على Llama-3، وتم تحسينه بشكل كبير، مناسب بشكل خاص لاستدعاء الدوال، والحوار، واتباع التعليمات."
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b هو نموذج لغوي بصري، يمكنه استقبال المدخلات من الصور والنصوص، تم تدريبه على بيانات عالية الجودة، مناسب للمهام متعددة الوسائط."
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "نموذج اللغة القوي من Deepseek، الذي يعتمد على مزيج من الخبراء (MoE)، بإجمالي عدد معلمات يبلغ 671 مليار، حيث يتم تفعيل 37 مليار معلمة لكل علامة."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "نموذج Llama 3 70B للتعليمات، مصمم للحوار متعدد اللغات وفهم اللغة الطبيعية، أداءه يتفوق على معظم النماذج المنافسة."
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "نموذج Llama 3 70B للتعليمات (نسخة HF)، يتوافق مع نتائج التنفيذ الرسمية، مناسب لمهام اتباع التعليمات عالية الجودة."
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "نموذج Llama 3 8B للتعليمات، تم تحسينه للحوار والمهام متعددة اللغات، يظهر أداءً ممتازًا وفعالًا."
},
@@ -356,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "نموذج استدلال الصور المعدل من Meta ذو 11B معلمات. تم تحسين هذا النموذج للتعرف البصري، واستدلال الصور، ووصف الصور، والإجابة عن الأسئلة العامة المتعلقة بالصور. يستطيع النموذج فهم البيانات البصرية مثل الرسوم البيانية والرسوم، ويسد الفجوة بين الرؤية واللغة من خلال توليد أوصاف نصية لجزئيات الصور."
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "نموذج التوجيه Llama 3.2 1B هو نموذج متعدد اللغات خفيف الوزن قدمته Meta. يهدف هذا النموذج إلى زيادة الكفاءة، مع تحسينات ملحوظة في التأخير والتكلفة مقارنة بالنماذج الأكبر. تشمل حالات الاستخدام النموذجية لهذا النموذج الاسترجاع والتلخيص."
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "نموذج التوجيه Llama 3.2 3B هو نموذج متعدد اللغات خفيف الوزن قدمته Meta. يهدف هذا النموذج إلى زيادة الكفاءة، مع تحسينات ملحوظة في التأخير والتكلفة مقارنة بالنماذج الأكبر. تشمل حالات الاستخدام النموذجية لهذا النموذج الاستفسارات وإعادة كتابة الملاحظات والمساعدة في الكتابة."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "نموذج استدلال الصور المعدل من Meta ذو 90B معلمات. تم تحسين هذا النموذج للتعرف البصري، واستدلال الصور، ووصف الصور، والإجابة عن الأسئلة العامة المتعلقة بالصور. يستطيع النموذج فهم البيانات البصرية مثل الرسوم البيانية والرسوم، ويسد الفجوة بين الرؤية واللغة من خلال توليد أوصاف نصية لجزئيات الصور."
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instruct هو الإصدار المحدث من Llama 3.1 70B في ديسمبر. تم تحسين هذا النموذج بناءً على Llama 3.1 70B (الذي تم إصداره في يوليو 2024) لتعزيز استدعاء الأدوات، ودعم النصوص متعددة اللغات، والقدرات الرياضية وبرمجة. لقد حقق هذا النموذج مستويات رائدة في الصناعة في الاستدلال، والرياضيات، واتباع التعليمات، ويستطيع تقديم أداء مشابه لـ 3.1 405B، مع مزايا ملحوظة في السرعة والتكلفة."
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "نموذج بـ 24 مليار معلمة، يتمتع بقدرات متقدمة تعادل النماذج الأكبر حجماً."
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "نموذج Mixtral MoE 8x22B للتعليمات، مع معلمات ضخمة وهيكل خبير متعدد، يدعم معالجة فعالة لمهام معقدة."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "نموذج Mixtral MoE 8x7B للتعليمات، يوفر هيكل خبير متعدد لتقديم تعليمات فعالة واتباعها."
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "نموذج Mixtral MoE 8x7B للتعليمات (نسخة HF)، الأداء يتوافق مع التنفيذ الرسمي، مناسب لمجموعة متنوعة من سيناريوهات المهام الفعالة."
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "نموذج MythoMax L2 13B، يجمع بين تقنيات الدمج الجديدة، بارع في السرد وأدوار الشخصيات."
},
@@ -383,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "نموذج QwQ هو نموذج بحث تجريبي تم تطويره بواسطة فريق Qwen، يركز على تعزيز قدرات الاستدلال للذكاء الاصطناعي."
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "الإصدار 72B من نموذج Qwen-VL هو نتيجة أحدث ابتكارات Alibaba، ويمثل ما يقرب من عام من الابتكار."
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 هي سلسلة من نماذج اللغة التي طورتها مجموعة Qwen من علي بابا، تحتوي فقط على شريحة فك شفرات. توفر هذه النماذج أحجامًا مختلفة، بما في ذلك 0.5B، 1.5B، 3B، 7B، 14B، 32B و72B، وتأتي بنسخ أساسية (base) ونماذج توجيهية (instruct)."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct هو أحدث إصدار من سلسلة نماذج اللغة الكبيرة المحددة للشيفرة التي أصدرتها Alibaba Cloud. تم تحسين هذا النموذج بشكل كبير في توليد الشيفرة، والاستدلال، وإصلاح الأخطاء، من خلال تدريب على 55 تريليون توكن."
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "نموذج StarCoder 15.5B، يدعم مهام البرمجة المتقدمة، مع تعزيز القدرة على التعامل مع لغات متعددة، مناسب لتوليد وفهم الشيفرات المعقدة."
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "نموذج StarCoder 7B، تم تدريبه على أكثر من 80 لغة برمجة، يتمتع بقدرة ممتازة على ملء البرمجة وفهم السياق."
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "نموذج Yi-Large، يتمتع بقدرة معالجة لغوية ممتازة، يمكن استخدامه في جميع أنواع مهام توليد وفهم اللغة."
},
@@ -887,30 +878,18 @@
"lite": {
"description": "سبارك لايت هو نموذج لغوي كبير خفيف الوزن، يتميز بتأخير منخفض للغاية وكفاءة عالية في المعالجة، وهو مجاني تمامًا ومفتوح، ويدعم وظيفة البحث عبر الإنترنت في الوقت الحقيقي. تجعل خصائص استجابته السريعة منه مثاليًا لتطبيقات الاستدلال على الأجهزة ذات القدرة الحاسوبية المنخفضة وضبط النماذج، مما يوفر للمستخدمين قيمة ممتازة من حيث التكلفة وتجربة ذكية، خاصة في مجالات الأسئلة والأجوبة المعرفية، وتوليد المحتوى، وسيناريوهات البحث."
},
- "llama-3.1-70b-instruct": {
- "description": "نموذج Llama 3.1 70B للتعليمات، يتمتع بـ 70B من المعلمات، قادر على تقديم أداء ممتاز في مهام توليد النصوص الكبيرة والتعليمات."
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B يوفر قدرة استدلال ذكائي أقوى، مناسب للتطبيقات المعقدة، يدعم معالجة حسابية ضخمة ويضمن الكفاءة والدقة."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B هو نموذج عالي الأداء، يوفر قدرة سريعة على توليد النصوص، مما يجعله مثاليًا لمجموعة من التطبيقات التي تتطلب كفاءة كبيرة وتكلفة فعالة."
},
- "llama-3.1-8b-instruct": {
- "description": "نموذج Llama 3.1 8B للتعليمات، يتمتع بـ 8B من المعلمات، يدعم تنفيذ مهام التعليمات بكفاءة، ويوفر قدرة ممتازة على توليد النصوص."
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "نموذج Llama 3.1 Sonar Huge Online، يتمتع بـ 405B من المعلمات، يدعم طول سياق حوالي 127,000 علامة، مصمم لتطبيقات دردشة معقدة عبر الإنترنت."
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "نموذج Llama 3.1 Sonar Large Chat، يتمتع بـ 70B من المعلمات، يدعم طول سياق حوالي 127,000 علامة، مناسب لمهام دردشة غير متصلة معقدة."
- },
"llama-3.1-sonar-large-128k-online": {
"description": "نموذج Llama 3.1 Sonar Large Online، يتمتع بـ 70B من المعلمات، يدعم طول سياق حوالي 127,000 علامة، مناسب لمهام دردشة عالية السعة ومتنوعة."
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "نموذج Llama 3.1 Sonar Small Chat، يتمتع بـ 8B من المعلمات، مصمم للدردشة غير المتصلة، يدعم طول سياق حوالي 127,000 علامة."
- },
"llama-3.1-sonar-small-128k-online": {
"description": "نموذج Llama 3.1 Sonar Small Online، يتمتع بـ 8B من المعلمات، يدعم طول سياق حوالي 127,000 علامة، مصمم للدردشة عبر الإنترنت، قادر على معالجة تفاعلات نصية متنوعة بكفاءة."
},
@@ -1356,10 +1335,13 @@
"description": "Solar Pro هو نموذج LLM عالي الذكاء تم إطلاقه من قبل Upstage، يركز على قدرة اتباع التعليمات على وحدة معالجة الرسوميات الواحدة، وسجل IFEval فوق 80. حاليًا يدعم اللغة الإنجليزية، ومن المقرر إصدار النسخة الرسمية في نوفمبر 2024، مع توسيع دعم اللغات وطول السياق."
},
"sonar": {
- "description": "Perplexity Sonar is the most efficient and cost-effective search solutions available. It gives you fast, straightforward answers."
+ "description": "منتج بحث خفيف الوزن يعتمد على سياق البحث، أسرع وأرخص من Sonar Pro."
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro is the most efficient and cost-effective search solutions available. It tackles complex questions that need deeper research and provides more sources."
+ "description": "منتج بحث متقدم يدعم سياق البحث، مع دعم للاستعلامات المتقدمة والمتابعة."
+ },
+ "sonar-reasoning": {
+ "description": "منتج API الجديد المدعوم من نموذج الاستدلال من DeepSeek."
},
"step-1-128k": {
"description": "يوفر توازنًا بين الأداء والتكلفة، مناسب لمجموعة متنوعة من السيناريوهات."
diff --git a/locales/bg-BG/models.json b/locales/bg-BG/models.json
index 1032d5d444a1d..79846eb67c2f6 100644
--- a/locales/bg-BG/models.json
+++ b/locales/bg-BG/models.json
@@ -323,21 +323,15 @@
"abab7-chat-preview": {
"description": "В сравнение с моделите от серията abab6.5, този модел предлага значително подобрение в способностите за работа с дълги текстове, математика и писане."
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "Fireworks отворен модел за извикване на функции, предлагащ отлични способности за изпълнение на инструкции и отворени, персонализируеми характеристики."
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1 е авангарден голям езиков модел, оптимизиран чрез подсилено обучение и данни за студен старт, с отлични способности в разсъжденията, математиката и програмирането."
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "Fireworks компанията представя Firefunction-v2, модел за извикване на функции с изключителна производителност, разработен на базата на Llama-3 и оптимизиран за функции, диалози и следване на инструкции."
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b е визуален езиков модел, който може да приема изображения и текстови входове, обучен с висококачествени данни, подходящ за мултимодални задачи."
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "Мощен езиков модел Mixture-of-Experts (MoE) от Deepseek, с общ брой параметри 671B, активиращи 37B параметри на всеки токен."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Llama 3 70B модел за инструкции, специално оптимизиран за многоезични диалози и разбиране на естествен език, с производителност, превъзхождаща повечето конкурентни модели."
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "Llama 3 70B модел за инструкции (HF версия), с резултати, съвпадащи с официалната реализация, подходящ за висококачествени задачи за следване на инструкции."
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Llama 3 8B модел за инструкции, оптимизиран за диалози и многоезични задачи, с изключителна производителност и ефективност."
},
@@ -356,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Моделът за разсъждение по изображения с 11B параметри на Meta е оптимизиран за визуално разпознаване, разсъждение по изображения, описание на изображения и отговаряне на общи въпроси относно изображения. Моделът може да разбира визуални данни, като графики и таблици, и свързва визуалните данни с текстовите описания на детайлите на изображенията."
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "Моделът Llama 3.2 1B е лека многоезична разработка от Meta. Този модел е проектиран да подобри ефективността, предоставяйки значителни подобрения в забавянето и разходите в сравнение с по-големи модели. Примерни случаи на ползване включват извличане и обобщение."
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Моделът Llama 3.2 3B е лека многоезична разработка от Meta. Този модел е проектиран да подобри ефективността, предоставяйки значителни подобрения в забавянето и разходите в сравнение с по-големи модели. Примерни случаи на ползване включват заявки, пренаписване на подканвания и подпомагане на писането."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Моделът за разсъждение по изображения с 90B параметри на Meta е оптимизиран за визуално разпознаване, разсъждение по изображения, описание на изображения и отговаряне на общи въпроси относно изображения. Моделът може да разбира визуални данни, като графики и таблици, и свързва визуалните данни с текстовите описания на детайлите на изображенията."
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instruct е актуализирана версия на Llama 3.1 70B от декември. Този модел е подобрен на базата на Llama 3.1 70B (пуснат през юли 2024 г.), с подобрени възможности за извикване на инструменти, поддръжка на многоезичен текст, математика и програмиране. Моделът постига водещи в индустрията резултати в области като разсъждение, математика и следване на инструкции, и предлага производителност, подобна на 3.1 405B, с значителни предимства в скоростта и разходите."
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "Модел с 24B параметри, предлагащ водещи в индустрията способности, сравними с по-големите модели."
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Mixtral MoE 8x22B модел за инструкции, с голям брой параметри и архитектура с множество експерти, осигуряваща всестранна поддръжка за ефективна обработка на сложни задачи."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Mixtral MoE 8x7B модел за инструкции, архитектура с множество експерти, предлагаща ефективно следване и изпълнение на инструкции."
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "Mixtral MoE 8x7B модел за инструкции (HF версия), с производителност, съвпадаща с официалната реализация, подходящ за множество ефективни сценарии."
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "MythoMax L2 13B модел, комбиниращ новаторски технологии за интеграция, специализиран в разказване на истории и ролеви игри."
},
@@ -383,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "QwQ моделът е експериментален изследователски модел, разработен от екипа на Qwen, който се фокусира върху подобряване на AI разсъдъчните способности."
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "72B версия на модела Qwen-VL е последната итерация на Alibaba, представляваща иновации от последната година."
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 е серия от езикови модели, разработени от екипа на Alibaba Cloud Qwen, които съдържат само декодери. Тези модели предлагат различни размери, включително 0.5B, 1.5B, 3B, 7B, 14B, 32B и 72B, и разполагат с базови (base) и инструкти (instruct) варианти."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct е най-новата версия на серията големи езикови модели, специфични за код, публикувана от Alibaba Cloud. Моделът значително подобрява способностите за генериране на код, разсъждения и корекции, след като е обучен с 55 трилиона токена на базата на Qwen2.5. Той не само подобрява кодовите умения, но и запазва предимствата в математиката и общите способности. Моделът предоставя по-пълна основа за практическите приложения като кодови интелигентни агенти."
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "StarCoder 15.5B модел, поддържащ напреднали програмни задачи, с подобрени многоезични способности, подходящ за сложна генерация и разбиране на код."
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "StarCoder 7B модел, обучен за над 80 програмни езика, с отлични способности за попълване на код и разбиране на контекста."
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "Yi-Large модел, предлагащ изключителни способности за многоезична обработка, подходящ за различни задачи по генериране и разбиране на език."
},
@@ -887,30 +878,18 @@
"lite": {
"description": "Spark Lite е лек модел на голям език, с изключително ниска латентност и ефективна обработка, напълно безплатен и отворен, поддържащ функции за онлайн търсене в реално време. Неговите бързи отговори го правят отличен за приложения на нискомощни устройства и фина настройка на модели, предоставяйки на потребителите отлична рентабилност и интелигентно изживяване, особено в контекста на въпроси и отговори, генериране на съдържание и търсене."
},
- "llama-3.1-70b-instruct": {
- "description": "Llama 3.1 70B Instruct модел, с 70B параметри, способен да предоставя изключителна производителност в задачи за генериране на текст и инструкции."
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B предлага по-мощни способности за разсъждение на AI, подходящи за сложни приложения, поддържащи множество изчислителни обработки и осигуряващи ефективност и точност."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B е модел с висока производителност, предлагащ бързи способности за генериране на текст, особено подходящ за приложения, изискващи мащабна ефективност и икономичност."
},
- "llama-3.1-8b-instruct": {
- "description": "Llama 3.1 8B Instruct модел, с 8B параметри, поддържащ ефективно изпълнение на задачи с визуални указания, предлагащ качествени способности за генериране на текст."
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "Llama 3.1 Sonar Huge Online модел, с 405B параметри, поддържащ контекстова дължина от около 127,000 маркера, проектиран за сложни онлайн чат приложения."
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "Llama 3.1 Sonar Large Chat модел, с 70B параметри, поддържащ контекстова дължина от около 127,000 маркера, подходящ за сложни офлайн чат задачи."
- },
"llama-3.1-sonar-large-128k-online": {
"description": "Llama 3.1 Sonar Large Online модел, с 70B параметри, поддържащ контекстова дължина от около 127,000 маркера, подходящ за задачи с висока капацитет и разнообразие в чата."
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "Llama 3.1 Sonar Small Chat модел, с 8B параметри, проектиран за офлайн чат, поддържащ контекстова дължина от около 127,000 маркера."
- },
"llama-3.1-sonar-small-128k-online": {
"description": "Llama 3.1 Sonar Small Online модел, с 8B параметри, поддържащ контекстова дължина от около 127,000 маркера, проектиран за онлайн чат, способен да обработва ефективно различни текстови взаимодействия."
},
@@ -1356,10 +1335,13 @@
"description": "Solar Pro е високоинтелигентен LLM, пуснат от Upstage, фокусиран върху способността за следване на инструкции с един GPU, с IFEval оценка над 80. В момента поддържа английски, а официалната версия е планирана за пускане през ноември 2024 г., с разширена поддръжка на езици и дължина на контекста."
},
"sonar": {
- "description": "Perplexity Sonar is the most efficient and cost-effective search solutions available. It gives you fast, straightforward answers."
+ "description": "Лек продукт за търсене, базиран на контекст на търсене, по-бърз и по-евтин от Sonar Pro."
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro is the most efficient and cost-effective search solutions available. It tackles complex questions that need deeper research and provides more sources."
+ "description": "Разширен продукт за търсене, който поддържа контекст на търсене, напреднали запитвания и проследяване."
+ },
+ "sonar-reasoning": {
+ "description": "Нови API продукти, поддържани от модела за разсъждение на DeepSeek."
},
"step-1-128k": {
"description": "Баланс между производителност и разходи, подходящ за общи сценарии."
diff --git a/locales/de-DE/models.json b/locales/de-DE/models.json
index 65f62af735407..2aa7f59604385 100644
--- a/locales/de-DE/models.json
+++ b/locales/de-DE/models.json
@@ -323,21 +323,15 @@
"abab7-chat-preview": {
"description": "Im Vergleich zur abab6.5-Modellreihe gibt es erhebliche Verbesserungen in den Fähigkeiten bei langen Texten, Mathematik und Schreiben."
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "Das Open-Source-Funktionsaufrufmodell von Fireworks bietet hervorragende Anweisungsdurchführungsfähigkeiten und anpassbare Funktionen."
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1 ist ein hochmodernes großes Sprachmodell, das durch verstärktes Lernen und Optimierung mit Kaltstartdaten hervorragende Leistungen in Inferenz, Mathematik und Programmierung bietet."
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "Das neueste Firefunction-v2 von Fireworks ist ein leistungsstarkes Funktionsaufrufmodell, das auf Llama-3 basiert und durch zahlreiche Optimierungen besonders für Funktionsaufrufe, Dialoge und Anweisungsverfolgung geeignet ist."
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b ist ein visuelles Sprachmodell, das sowohl Bild- als auch Texteingaben verarbeiten kann und für multimodale Aufgaben geeignet ist, nachdem es mit hochwertigen Daten trainiert wurde."
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "Ein leistungsstarkes Mixture-of-Experts (MoE) Sprachmodell von Deepseek mit insgesamt 671B Parametern, wobei 37B Parameter pro Token aktiviert werden."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Das Llama 3 70B Instruct-Modell ist speziell für mehrsprachige Dialoge und natürliche Sprachverständnis optimiert und übertrifft die meisten Wettbewerbsmodelle."
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "Das Llama 3 70B Instruct-Modell (HF-Version) entspricht den offiziellen Ergebnissen und eignet sich für hochwertige Anweisungsverfolgungsaufgaben."
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Das Llama 3 8B Instruct-Modell ist für Dialoge und mehrsprachige Aufgaben optimiert und bietet hervorragende und effiziente Leistungen."
},
@@ -356,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Meta's 11B Parameter instruct-Modell für Bildverarbeitung. Dieses Modell ist optimiert für visuelle Erkennung, Bildverarbeitung, Bildbeschreibung und die Beantwortung allgemeiner Fragen zu Bildern. Es kann visuelle Daten wie Diagramme und Grafiken verstehen und schließt die Lücke zwischen visuellen und sprachlichen Informationen, indem es textuelle Beschreibungen der Bilddetails generiert."
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "Llama 3.2 1B instruct-Modell ist ein leichtgewichtiges mehrsprachiges Modell, das von Meta veröffentlicht wurde. Dieses Modell zielt darauf ab, die Effizienz zu steigern und bietet im Vergleich zu größeren Modellen signifikante Verbesserungen in Bezug auf Latenz und Kosten. Anwendungsbeispiele für dieses Modell sind Retrieval und Zusammenfassung."
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Llama 3.2 3B instruct-Modell ist ein leichtgewichtiges mehrsprachiges Modell, das von Meta veröffentlicht wurde. Dieses Modell zielt darauf ab, die Effizienz zu steigern und bietet im Vergleich zu größeren Modellen signifikante Verbesserungen in Bezug auf Latenz und Kosten. Anwendungsbeispiele für dieses Modell sind Abfragen und Aufforderungsneuschreibungen sowie Schreibassistenz."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Meta's 90B Parameter instruct-Modell für Bildverarbeitung. Dieses Modell ist optimiert für visuelle Erkennung, Bildverarbeitung, Bildbeschreibung und die Beantwortung allgemeiner Fragen zu Bildern. Es kann visuelle Daten wie Diagramme und Grafiken verstehen und schließt die Lücke zwischen visuellen und sprachlichen Informationen, indem es textuelle Beschreibungen der Bilddetails generiert."
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instruct ist die aktualisierte Version von Llama 3.1 70B aus dem Dezember. Dieses Modell wurde auf der Grundlage von Llama 3.1 70B (veröffentlicht im Juli 2024) verbessert und bietet erweiterte Funktionen für Toolaufrufe, mehrsprachige Textunterstützung sowie mathematische und Programmierfähigkeiten. Das Modell erreicht branchenführende Leistungen in den Bereichen Inferenz, Mathematik und Befehlsbefolgung und bietet eine ähnliche Leistung wie 3.1 405B, während es gleichzeitig signifikante Vorteile in Bezug auf Geschwindigkeit und Kosten bietet."
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "Ein 24B-Parameter-Modell mit fortschrittlichen Fähigkeiten, die mit größeren Modellen vergleichbar sind."
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Das Mixtral MoE 8x22B Instruct-Modell unterstützt durch seine große Anzahl an Parametern und Multi-Expert-Architektur die effiziente Verarbeitung komplexer Aufgaben."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Das Mixtral MoE 8x7B Instruct-Modell bietet durch seine Multi-Expert-Architektur effiziente Anweisungsverfolgung und -ausführung."
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "Das Mixtral MoE 8x7B Instruct-Modell (HF-Version) bietet die gleiche Leistung wie die offizielle Implementierung und eignet sich für verschiedene effiziente Anwendungsszenarien."
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "Das MythoMax L2 13B-Modell kombiniert neuartige Kombinations-Technologien und ist besonders gut in Erzählungen und Rollenspielen."
},
@@ -383,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "Das QwQ-Modell ist ein experimentelles Forschungsmodell, das vom Qwen-Team entwickelt wurde und sich auf die Verbesserung der KI-Inferenzfähigkeiten konzentriert."
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "Die 72B-Version des Qwen-VL-Modells ist das neueste Ergebnis von Alibabas Iteration und repräsentiert fast ein Jahr an Innovation."
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 ist eine Reihe von Sprachmodellen mit ausschließlich Decodern, die vom Alibaba Cloud Qwen-Team entwickelt wurde. Diese Modelle sind in verschiedenen Größen erhältlich, darunter 0.5B, 1.5B, 3B, 7B, 14B, 32B und 72B, mit Basis- und instruct-Varianten."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct ist die neueste Version der von Alibaba Cloud veröffentlichten Reihe von code-spezifischen großen Sprachmodellen. Dieses Modell basiert auf Qwen2.5 und wurde mit 55 Billionen Tokens trainiert, um die Fähigkeiten zur Codegenerierung, Inferenz und Fehlerbehebung erheblich zu verbessern. Es verbessert nicht nur die Codierungsfähigkeiten, sondern bewahrt auch die Vorteile in Mathematik und allgemeinen Fähigkeiten. Das Modell bietet eine umfassendere Grundlage für praktische Anwendungen wie Code-Agenten."
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "Das StarCoder 15.5B-Modell unterstützt fortgeschrittene Programmieraufgaben und hat verbesserte mehrsprachige Fähigkeiten, die sich für komplexe Codegenerierung und -verständnis eignen."
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "Das StarCoder 7B-Modell wurde für über 80 Programmiersprachen trainiert und bietet hervorragende Programmierausfüllfähigkeiten und Kontextverständnis."
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "Das Yi-Large-Modell bietet hervorragende mehrsprachige Verarbeitungsfähigkeiten und kann für verschiedene Sprachgenerierungs- und Verständnisaufgaben eingesetzt werden."
},
@@ -887,30 +878,18 @@
"lite": {
"description": "Spark Lite ist ein leichtgewichtiges großes Sprachmodell mit extrem niedriger Latenz und effizienter Verarbeitung, das vollständig kostenlos und offen ist und Echtzeitsuchfunktionen unterstützt. Seine schnelle Reaktionsfähigkeit macht es besonders geeignet für Inferenzanwendungen und Modellanpassungen auf Geräten mit geringer Rechenleistung und bietet den Nutzern ein hervorragendes Kosten-Nutzen-Verhältnis sowie ein intelligentes Erlebnis, insbesondere in den Bereichen Wissensabfragen, Inhaltserstellung und Suchszenarien."
},
- "llama-3.1-70b-instruct": {
- "description": "Das Llama 3.1 70B Instruct-Modell hat 70B Parameter und bietet herausragende Leistungen bei der Generierung großer Texte und Anweisungsaufgaben."
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B bietet leistungsstarke KI-Schlussfolgerungsfähigkeiten, die für komplexe Anwendungen geeignet sind und eine hohe Rechenverarbeitung bei gleichzeitiger Effizienz und Genauigkeit unterstützen."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B ist ein leistungsstarkes Modell, das schnelle Textgenerierungsfähigkeiten bietet und sich hervorragend für Anwendungen eignet, die große Effizienz und Kosteneffektivität erfordern."
},
- "llama-3.1-8b-instruct": {
- "description": "Das Llama 3.1 8B Instruct-Modell hat 8B Parameter und unterstützt die effiziente Ausführung von bildbasierten Anweisungsaufgaben und bietet hochwertige Textgenerierungsfähigkeiten."
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "Das Llama 3.1 Sonar Huge Online-Modell hat 405B Parameter und unterstützt eine Kontextlänge von etwa 127.000 Markierungen, es wurde für komplexe Online-Chat-Anwendungen entwickelt."
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "Das Llama 3.1 Sonar Large Chat-Modell hat 70B Parameter und unterstützt eine Kontextlänge von etwa 127.000 Markierungen, es eignet sich für komplexe Offline-Chat-Aufgaben."
- },
"llama-3.1-sonar-large-128k-online": {
"description": "Das Llama 3.1 Sonar Large Online-Modell hat 70B Parameter und unterstützt eine Kontextlänge von etwa 127.000 Markierungen, es eignet sich für hochvolumige und vielfältige Chat-Aufgaben."
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "Das Llama 3.1 Sonar Small Chat-Modell hat 8B Parameter und wurde speziell für Offline-Chat entwickelt, es unterstützt eine Kontextlänge von etwa 127.000 Markierungen."
- },
"llama-3.1-sonar-small-128k-online": {
"description": "Das Llama 3.1 Sonar Small Online-Modell hat 8B Parameter und unterstützt eine Kontextlänge von etwa 127.000 Markierungen, es wurde speziell für Online-Chat entwickelt und kann verschiedene Textinteraktionen effizient verarbeiten."
},
@@ -1356,10 +1335,13 @@
"description": "Solar Pro ist ein hochintelligentes LLM, das von Upstage entwickelt wurde und sich auf die Befolgung von Anweisungen mit einer einzigen GPU konzentriert, mit einem IFEval-Score von über 80. Derzeit unterstützt es Englisch, die offizielle Version ist für November 2024 geplant und wird die Sprachunterstützung und Kontextlänge erweitern."
},
"sonar": {
- "description": "Perplexity Sonar is the most efficient and cost-effective search solutions available. It gives you fast, straightforward answers."
+ "description": "Ein leichtgewichtiges Suchprodukt, das auf kontextbezogener Suche basiert und schneller und günstiger ist als Sonar Pro."
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro is the most efficient and cost-effective search solutions available. It tackles complex questions that need deeper research and provides more sources."
+ "description": "Ein fortschrittliches Suchprodukt, das kontextbezogene Suche unterstützt und erweiterte Abfragen sowie Nachverfolgung ermöglicht."
+ },
+ "sonar-reasoning": {
+ "description": "Ein neues API-Produkt, das von DeepSeek-Inferenzmodellen unterstützt wird."
},
"step-1-128k": {
"description": "Bietet ein ausgewogenes Verhältnis zwischen Leistung und Kosten, geeignet für allgemeine Szenarien."
diff --git a/locales/en-US/models.json b/locales/en-US/models.json
index 3f92c4ff6736d..bd991ddceb709 100644
--- a/locales/en-US/models.json
+++ b/locales/en-US/models.json
@@ -323,21 +323,15 @@
"abab7-chat-preview": {
"description": "Significant improvements in capabilities such as long text, mathematics, and writing compared to the abab6.5 series models."
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "Fireworks open-source function-calling model provides excellent instruction execution capabilities and customizable features."
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1 is a state-of-the-art large language model optimized through reinforcement learning and cold-start data, excelling in reasoning, mathematics, and programming performance."
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "Fireworks' latest Firefunction-v2 is a high-performance function-calling model developed based on Llama-3, optimized for function calls, dialogues, and instruction following."
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b is a visual language model that can accept both image and text inputs, trained on high-quality data, suitable for multimodal tasks."
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "A powerful Mixture-of-Experts (MoE) language model provided by Deepseek, with a total parameter count of 671B, activating 37B parameters per token."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Llama 3 70B instruction model, optimized for multilingual dialogues and natural language understanding, outperforming most competitive models."
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "Llama 3 70B instruction model (HF version), aligned with official implementation results, suitable for high-quality instruction following tasks."
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Llama 3 8B instruction model, optimized for dialogues and multilingual tasks, delivering outstanding and efficient performance."
},
@@ -356,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Meta's 11B parameter instruction-tuned image reasoning model. This model is optimized for visual recognition, image reasoning, image description, and answering general questions about images. It understands visual data like charts and graphs, generating text descriptions of image details to bridge the gap between vision and language."
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "The Llama 3.2 1B instruction model is a lightweight multilingual model introduced by Meta. This model aims to enhance efficiency, providing significant improvements in latency and cost compared to larger models. Sample use cases include retrieval and summarization."
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "The Llama 3.2 3B instruction model is a lightweight multilingual model introduced by Meta. This model aims to enhance efficiency, providing significant improvements in latency and cost compared to larger models. Sample use cases include querying, prompt rewriting, and writing assistance."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Meta's 90B parameter instruction-tuned image reasoning model. This model is optimized for visual recognition, image reasoning, image description, and answering general questions about images. It understands visual data like charts and graphs, generating text descriptions of image details to bridge the gap between vision and language."
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instruct is the December update of Llama 3.1 70B. This model builds upon Llama 3.1 70B (released in July 2024) with enhancements in tool invocation, multilingual text support, mathematics, and programming capabilities. It achieves industry-leading performance in reasoning, mathematics, and instruction following, providing similar performance to 3.1 405B while offering significant advantages in speed and cost."
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "A 24B parameter model that possesses state-of-the-art capabilities comparable to larger models."
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Mixtral MoE 8x22B instruction model, featuring large-scale parameters and a multi-expert architecture, fully supporting efficient processing of complex tasks."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Mixtral MoE 8x7B instruction model, with a multi-expert architecture providing efficient instruction following and execution."
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "Mixtral MoE 8x7B instruction model (HF version), performance consistent with official implementation, suitable for various efficient task scenarios."
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "MythoMax L2 13B model, combining novel merging techniques, excels in narrative and role-playing."
},
@@ -383,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "The QwQ model is an experimental research model developed by the Qwen team, focusing on enhancing AI reasoning capabilities."
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "The 72B version of the Qwen-VL model is the latest iteration from Alibaba, representing nearly a year of innovation."
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 is a series of decoder-only language models developed by the Alibaba Cloud Qwen team. These models come in different sizes including 0.5B, 1.5B, 3B, 7B, 14B, 32B, and 72B, available in both base and instruct variants."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct is the latest version in Alibaba Cloud's series of code-specific large language models. This model significantly enhances code generation, reasoning, and repair capabilities based on Qwen2.5, trained on 55 trillion tokens. It not only improves coding abilities but also maintains advantages in mathematics and general capabilities, providing a more comprehensive foundation for practical applications such as code agents."
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "StarCoder 15.5B model supports advanced programming tasks, enhanced multilingual capabilities, suitable for complex code generation and understanding."
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "StarCoder 7B model, trained on over 80 programming languages, boasts excellent code completion capabilities and contextual understanding."
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "Yi-Large model, featuring exceptional multilingual processing capabilities, suitable for various language generation and understanding tasks."
},
@@ -887,30 +878,18 @@
"lite": {
"description": "Spark Lite is a lightweight large language model with extremely low latency and efficient processing capabilities, completely free and open, supporting real-time online search functionality. Its quick response feature makes it excel in inference applications and model fine-tuning on low-power devices, providing users with excellent cost-effectiveness and intelligent experiences, particularly in knowledge Q&A, content generation, and search scenarios."
},
- "llama-3.1-70b-instruct": {
- "description": "Llama 3.1 70B Instruct model, featuring 70B parameters, delivers outstanding performance in large text generation and instruction tasks."
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B provides enhanced AI reasoning capabilities, suitable for complex applications, supporting extensive computational processing while ensuring efficiency and accuracy."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B is a high-performance model that offers rapid text generation capabilities, making it ideal for applications requiring large-scale efficiency and cost-effectiveness."
},
- "llama-3.1-8b-instruct": {
- "description": "Llama 3.1 8B Instruct model, featuring 8B parameters, supports efficient execution of visual instruction tasks, providing high-quality text generation capabilities."
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "Llama 3.1 Sonar Huge Online model, featuring 405B parameters, supports a context length of approximately 127,000 tokens, designed for complex online chat applications."
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "Llama 3.1 Sonar Large Chat model, featuring 70B parameters, supports a context length of approximately 127,000 tokens, suitable for complex offline chat tasks."
- },
"llama-3.1-sonar-large-128k-online": {
"description": "Llama 3.1 Sonar Large Online model, featuring 70B parameters, supports a context length of approximately 127,000 tokens, suitable for high-capacity and diverse chat tasks."
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "Llama 3.1 Sonar Small Chat model, featuring 8B parameters, designed for offline chat, supports a context length of approximately 127,000 tokens."
- },
"llama-3.1-sonar-small-128k-online": {
"description": "Llama 3.1 Sonar Small Online model, featuring 8B parameters, supports a context length of approximately 127,000 tokens, designed for online chat, efficiently handling various text interactions."
},
@@ -1362,13 +1341,13 @@
"description": "Solar Pro is a highly intelligent LLM launched by Upstage, focusing on single-GPU instruction-following capabilities, with an IFEval score above 80. Currently supports English, with a formal version planned for release in November 2024, which will expand language support and context length."
},
"sonar": {
- "description": "Perplexity Sonar is the most efficient and cost-effective search solutions available. It gives you fast, straightforward answers."
+ "description": "A lightweight search product based on contextual search, faster and cheaper than Sonar Pro."
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro is the most efficient and cost-effective search solutions available. It tackles complex questions that need deeper research and provides more sources."
+ "description": "An advanced search product that supports contextual search, advanced queries, and follow-ups."
},
"sonar-reasoning": {
- "description": "Perplexity Sonar Reasoning is the latest API solution powered by DeepSeek R1."
+ "description": "A new API product powered by the DeepSeek reasoning model."
},
"step-1-128k": {
"description": "Balances performance and cost, suitable for general scenarios."
diff --git a/locales/es-ES/models.json b/locales/es-ES/models.json
index 673d8565ed28e..b8635a6fdd0b3 100644
--- a/locales/es-ES/models.json
+++ b/locales/es-ES/models.json
@@ -323,21 +323,15 @@
"abab7-chat-preview": {
"description": "En comparación con la serie de modelos abab6.5, ha habido una mejora significativa en habilidades como el manejo de textos largos, matemáticas y escritura."
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "Modelo de llamada de función de código abierto de Fireworks, que ofrece capacidades de ejecución de instrucciones sobresalientes y características personalizables."
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1 es un modelo de lenguaje grande de última generación, optimizado mediante aprendizaje por refuerzo y datos de arranque en frío, con un rendimiento excepcional en razonamiento, matemáticas y programación."
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "Firefunction-v2, lanzado por Fireworks, es un modelo de llamada de función de alto rendimiento, desarrollado sobre Llama-3 y optimizado para escenarios como llamadas de función, diálogos y seguimiento de instrucciones."
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b es un modelo de lenguaje visual que puede recibir entradas de imagen y texto simultáneamente, entrenado con datos de alta calidad, adecuado para tareas multimodales."
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "Modelo de lenguaje potente de Deepseek, basado en Mixture-of-Experts (MoE), con un total de 671B de parámetros, activando 37B de parámetros por cada token."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "El modelo de instrucciones Llama 3 70B está optimizado para diálogos multilingües y comprensión del lenguaje natural, superando el rendimiento de la mayoría de los modelos competidores."
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "El modelo de instrucciones Llama 3 70B (versión HF) es consistente con los resultados de la implementación oficial, adecuado para tareas de seguimiento de instrucciones de alta calidad."
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "El modelo de instrucciones Llama 3 8B está optimizado para diálogos y tareas multilingües, ofreciendo un rendimiento excepcional y eficiente."
},
@@ -356,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Modelo de razonamiento de imágenes de 11B parámetros ajustado por Meta. Este modelo está optimizado para el reconocimiento visual, razonamiento de imágenes, descripción de imágenes y respuestas a preguntas generales sobre imágenes. Puede entender datos visuales, como gráficos y diagramas, y cerrar la brecha entre la visión y el lenguaje generando descripciones textuales de los detalles de las imágenes."
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "El modelo de instrucciones Llama 3.2 1B es un modelo multilingüe ligero lanzado por Meta. Está diseñado para mejorar la eficiencia, ofreciendo mejoras significativas en latencia y costos en comparación con modelos más grandes. Ejemplos de uso de este modelo incluyen recuperación y resumen."
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "El modelo de instrucciones Llama 3.2 3B es un modelo multilingüe ligero lanzado por Meta. Está diseñado para mejorar la eficiencia, ofreciendo mejoras significativas en latencia y costos en comparación con modelos más grandes. Ejemplos de uso de este modelo incluyen consultas, reescritura de indicaciones y asistencia en la escritura."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Modelo de razonamiento de imágenes de 90B parámetros ajustado por Meta. Este modelo está optimizado para el reconocimiento visual, razonamiento de imágenes, descripción de imágenes y respuestas a preguntas generales sobre imágenes. Puede entender datos visuales, como gráficos y diagramas, y cerrar la brecha entre la visión y el lenguaje generando descripciones textuales de los detalles de las imágenes."
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instruct es la versión actualizada de diciembre de Llama 3.1 70B. Este modelo ha sido mejorado sobre la base de Llama 3.1 70B (lanzado en julio de 2024), mejorando la invocación de herramientas, el soporte de texto multilingüe, así como las capacidades matemáticas y de programación. El modelo alcanza niveles de liderazgo en la industria en razonamiento, matemáticas y cumplimiento de instrucciones, y puede ofrecer un rendimiento similar al de 3.1 405B, al tiempo que presenta ventajas significativas en velocidad y costo."
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "Modelo de 24B parámetros, con capacidades de vanguardia comparables a modelos más grandes."
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "El modelo de instrucciones Mixtral MoE 8x22B, con parámetros a gran escala y arquitectura de múltiples expertos, soporta de manera integral el procesamiento eficiente de tareas complejas."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "El modelo de instrucciones Mixtral MoE 8x7B, con una arquitectura de múltiples expertos, ofrece un seguimiento y ejecución de instrucciones eficientes."
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "El modelo de instrucciones Mixtral MoE 8x7B (versión HF) tiene un rendimiento consistente con la implementación oficial, adecuado para una variedad de escenarios de tareas eficientes."
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "El modelo MythoMax L2 13B combina técnicas de fusión innovadoras, destacándose en narración y juegos de rol."
},
@@ -383,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "El modelo QwQ es un modelo de investigación experimental desarrollado por el equipo de Qwen, enfocado en mejorar la capacidad de razonamiento de la IA."
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "La versión de 72B del modelo Qwen-VL es el resultado de la última iteración de Alibaba, representando casi un año de innovación."
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 es una serie de modelos de lenguaje solo decodificadores desarrollados por el equipo Qwen de Alibaba Cloud. Estos modelos ofrecen diferentes tamaños, incluidos 0.5B, 1.5B, 3B, 7B, 14B, 32B y 72B, y tienen variantes base y de instrucciones."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct es la última versión de la serie de modelos de lenguaje a gran escala específicos para código lanzada por Alibaba Cloud. Este modelo, basado en Qwen2.5, ha mejorado significativamente la generación, razonamiento y reparación de código a través de un entrenamiento con 55 billones de tokens. No solo ha mejorado la capacidad de codificación, sino que también ha mantenido ventajas en habilidades matemáticas y generales. El modelo proporciona una base más completa para aplicaciones prácticas como agentes de código."
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "El modelo StarCoder 15.5B soporta tareas de programación avanzadas, con capacidades multilingües mejoradas, adecuado para la generación y comprensión de código complejo."
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "El modelo StarCoder 7B está entrenado en más de 80 lenguajes de programación, con una excelente capacidad de completado de código y comprensión del contexto."
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "El modelo Yi-Large ofrece una capacidad de procesamiento multilingüe excepcional, adecuado para diversas tareas de generación y comprensión de lenguaje."
},
@@ -887,30 +878,18 @@
"lite": {
"description": "Spark Lite es un modelo de lenguaje grande y ligero, con una latencia extremadamente baja y una capacidad de procesamiento eficiente, completamente gratuito y de código abierto, que admite funciones de búsqueda en línea en tiempo real. Su característica de respuesta rápida lo hace destacar en aplicaciones de inferencia y ajuste de modelos en dispositivos de baja potencia, brindando a los usuarios una excelente relación costo-beneficio y experiencia inteligente, especialmente en escenarios de preguntas y respuestas, generación de contenido y búsqueda."
},
- "llama-3.1-70b-instruct": {
- "description": "El modelo Llama 3.1 70B Instruct, con 70B de parámetros, puede ofrecer un rendimiento excepcional en tareas de generación de texto y de instrucciones a gran escala."
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B ofrece una capacidad de razonamiento AI más potente, adecuada para aplicaciones complejas, soportando un procesamiento computacional extenso y garantizando eficiencia y precisión."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B es un modelo de alto rendimiento que ofrece una rápida capacidad de generación de texto, ideal para aplicaciones que requieren eficiencia a gran escala y rentabilidad."
},
- "llama-3.1-8b-instruct": {
- "description": "El modelo Llama 3.1 8B Instruct, con 8B de parámetros, soporta la ejecución eficiente de tareas de instrucciones visuales, ofreciendo una excelente capacidad de generación de texto."
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "El modelo Llama 3.1 Sonar Huge Online, con 405B de parámetros, soporta una longitud de contexto de aproximadamente 127,000 tokens, diseñado para aplicaciones de chat en línea complejas."
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "El modelo Llama 3.1 Sonar Large Chat, con 70B de parámetros, soporta una longitud de contexto de aproximadamente 127,000 tokens, adecuado para tareas de chat fuera de línea complejas."
- },
"llama-3.1-sonar-large-128k-online": {
"description": "El modelo Llama 3.1 Sonar Large Online, con 70B de parámetros, soporta una longitud de contexto de aproximadamente 127,000 tokens, adecuado para tareas de chat de alta capacidad y diversidad."
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "El modelo Llama 3.1 Sonar Small Chat, con 8B de parámetros, está diseñado para chat fuera de línea, soportando una longitud de contexto de aproximadamente 127,000 tokens."
- },
"llama-3.1-sonar-small-128k-online": {
"description": "El modelo Llama 3.1 Sonar Small Online, con 8B de parámetros, soporta una longitud de contexto de aproximadamente 127,000 tokens, diseñado para chat en línea, capaz de manejar eficientemente diversas interacciones textuales."
},
@@ -1356,10 +1335,13 @@
"description": "Solar Pro es un LLM de alta inteligencia lanzado por Upstage, enfocado en la capacidad de seguimiento de instrucciones en un solo GPU, con una puntuación IFEval superior a 80. Actualmente soporta inglés, y se planea lanzar la versión oficial en noviembre de 2024, ampliando el soporte de idiomas y la longitud del contexto."
},
"sonar": {
- "description": "Perplexity Sonar is the most efficient and cost-effective search solutions available. It gives you fast, straightforward answers."
+ "description": "Producto de búsqueda ligero basado en contexto de búsqueda, más rápido y económico que Sonar Pro."
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro is the most efficient and cost-effective search solutions available. It tackles complex questions that need deeper research and provides more sources."
+ "description": "Producto de búsqueda avanzada que soporta contexto de búsqueda, consultas avanzadas y seguimiento."
+ },
+ "sonar-reasoning": {
+ "description": "Nuevo producto API respaldado por el modelo de razonamiento de DeepSeek."
},
"step-1-128k": {
"description": "Equilibrio entre rendimiento y costo, adecuado para escenarios generales."
diff --git a/locales/fa-IR/models.json b/locales/fa-IR/models.json
index 5ca6d4cce4bc6..9a32f1333e29c 100644
--- a/locales/fa-IR/models.json
+++ b/locales/fa-IR/models.json
@@ -323,21 +323,15 @@
"abab7-chat-preview": {
"description": "نسبت به مدلهای سری abab6.5، در تواناییهای مربوط به متنهای طولانی، ریاضیات و نوشتن به طور قابل توجهی بهبود یافته است."
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "مدل فراخوانی تابع Fireworks منبعباز، ارائهدهنده قابلیت اجرای دستورالعملهای برجسته و ویژگیهای باز و قابل سفارشیسازی."
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1 یک مدل زبان بزرگ پیشرفته است که با یادگیری تقویتی و بهینهسازی دادههای راهاندازی سرد، عملکرد استدلال، ریاضیات و برنامهنویسی فوقالعادهای دارد."
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "مدل Firefunction-v2 که به تازگی توسط شرکت Fireworks معرفی شده است، یک مدل فراخوانی تابع با عملکرد عالی است که بر اساس Llama-3 توسعه یافته و با بهینهسازیهای گسترده، بهویژه برای فراخوانی توابع، مکالمات و پیروی از دستورات مناسب است."
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b یک مدل زبان بصری است که میتواند بهطور همزمان ورودیهای تصویر و متن را دریافت کند. این مدل با دادههای باکیفیت آموزش دیده و برای وظایف چندوجهی مناسب است."
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "مدل زبان قدرتمند Mixture-of-Experts (MoE) ارائه شده توسط Deepseek، با مجموع پارامترها به میزان 671B و فعالسازی 37B پارامتر برای هر نشانه."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "مدل Llama 3 70B دستورالعمل، بهطور ویژه برای مکالمات چندزبانه و درک زبان طبیعی بهینهسازی شده است و عملکردی بهتر از اکثر مدلهای رقیب دارد."
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "مدل Llama 3 70B دستورالعمل (نسخه HF)، با نتایج پیادهسازی رسمی سازگار است و برای وظایف پیروی از دستورالعمل با کیفیت بالا مناسب است."
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "مدل Llama 3 8B دستورالعمل، بهینهسازی شده برای مکالمه و وظایف چندزبانه، با عملکرد برجسته و کارآمد."
},
@@ -356,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "مدل استنتاج تصویر با ۱۱ میلیارد پارامتر از Meta که برای دستورالعملها تنظیم شده است. این مدل برای تشخیص بصری، استنتاج تصویر، توصیف تصویر و پاسخ به سوالات عمومی درباره تصاویر بهینهسازی شده است. این مدل قادر به درک دادههای بصری مانند نمودارها و گرافها است و با تولید توضیحات متنی از جزئیات تصاویر، فاصله بین دیداری و زبانی را پر میکند."
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "مدل Llama 3.2 1B دستورالعمل یک مدل چندزبانه سبک است که توسط Meta ارائه شده است. این مدل با هدف بهبود کارایی طراحی شده و در مقایسه با مدلهای بزرگتر، بهبودهای قابل توجهی در تأخیر و هزینه ارائه میدهد. موارد استفاده نمونه از این مدل شامل بازیابی و خلاصهسازی است."
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "مدل Llama 3.2 3B دستورالعمل یک مدل چندزبانه سبک است که توسط Meta ارائه شده است. این مدل با هدف بهبود کارایی طراحی شده و در مقایسه با مدلهای بزرگتر، بهبودهای قابل توجهی در تأخیر و هزینه ارائه میدهد. نمونههای کاربردی این مدل شامل بازنویسی پرسشها و دستورات و همچنین کمک به نوشتن است."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "مدل استنتاج تصویر با 90 میلیارد پارامتر از Meta که برای دستورالعملها تنظیم شده است. این مدل برای تشخیص بصری، استنتاج تصویر، توصیف تصویر و پاسخ به سوالات عمومی در مورد تصاویر بهینهسازی شده است. این مدل قادر است دادههای بصری مانند نمودارها و گرافها را درک کند و با تولید توضیحات متنی از جزئیات تصویر، فاصله بین دیداری و زبانی را پر کند."
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "مدل Llama 3.3 70B Instruct نسخه بهروزرسانی شده Llama 3.1 70B در دسامبر است. این مدل بر اساس Llama 3.1 70B (منتشر شده در ژوئیه 2024) بهبود یافته و قابلیتهای فراخوانی ابزار، پشتیبانی از متن چند زبانه، ریاضیات و برنامهنویسی را تقویت کرده است. این مدل در استدلال، ریاضیات و پیروی از دستورات به سطح پیشرفتهای در صنعت رسیده و میتواند عملکردی مشابه با 3.1 405B ارائه دهد، در حالی که از نظر سرعت و هزینه مزایای قابل توجهی دارد."
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "مدل 24B با پارامترهایی که قابلیتهای پیشرفتهای مشابه مدلهای بزرگتر را داراست."
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "مدل Mixtral MoE 8x22B دستوری، با پارامترهای بزرگ و معماری چندین متخصص، پشتیبانی کامل از پردازش کارآمد وظایف پیچیده."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "مدل Mixtral MoE 8x7B، معماری چندین متخصص برای پیروی و اجرای دستورات بهصورت کارآمد ارائه میدهد."
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "مدل Mixtral MoE 8x7B دستورالعمل (نسخه HF)، با عملکردی مشابه با پیادهسازی رسمی، مناسب برای انواع سناریوهای وظایف کارآمد."
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "مدل MythoMax L2 13B، با استفاده از تکنیکهای ترکیبی نوآورانه، در روایت داستان و نقشآفرینی مهارت دارد."
},
@@ -383,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "مدل QwQ یک مدل تحقیقاتی تجربی است که توسط تیم Qwen توسعه یافته و بر تقویت توانایی استدلال AI تمرکز دارد."
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "نسخه 72B مدل Qwen-VL نتیجه جدیدترین بهروزرسانیهای علیبابا است که نمایانگر نوآوریهای نزدیک به یک سال اخیر است."
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 مجموعهای از مدلهای زبانی است که تنها شامل رمزگشاها میباشد و توسط تیم Qwen علیبابا کلود توسعه یافته است. این مدلها در اندازههای مختلف از جمله 0.5B، 1.5B، 3B، 7B، 14B، 32B و 72B ارائه میشوند و دارای دو نوع پایه (base) و دستوری (instruct) هستند."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct جدیدترین نسخه از سری مدلهای زبانی بزرگ خاص کد است که توسط Alibaba Cloud منتشر شده است. این مدل بر اساس Qwen2.5 و با آموزش 5.5 تریلیون توکن، توانایی تولید کد، استدلال و اصلاح را به طور قابل توجهی افزایش داده است. این مدل نه تنها توانایی کدنویسی را تقویت کرده بلکه مزایای ریاضی و عمومی را نیز حفظ کرده است. این مدل پایهای جامعتر برای کاربردهای عملی مانند عاملهای کد فراهم میکند."
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "مدل StarCoder 15.5B، پشتیبانی از وظایف پیشرفته برنامهنویسی، با قابلیتهای چندزبانه تقویت شده، مناسب برای تولید و درک کدهای پیچیده."
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "مدل StarCoder 7B، آموزشدیده بر روی بیش از ۸۰ زبان برنامهنویسی مختلف، با توانایی برجسته در تکمیل کد و درک زمینه."
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "مدل Yi-Large، با توانایی برجسته در پردازش چندزبانه، مناسب برای انواع وظایف تولید و درک زبان."
},
@@ -887,30 +878,18 @@
"lite": {
"description": "Spark Lite یک مدل زبان بزرگ سبک است که دارای تأخیر بسیار کم و توانایی پردازش کارآمد میباشد. بهطور کامل رایگان و باز است و از قابلیت جستجوی آنلاین در زمان واقعی پشتیبانی میکند. ویژگی پاسخدهی سریع آن باعث میشود که در کاربردهای استنتاجی و تنظیم مدل در دستگاههای با توان محاسباتی پایین عملکرد برجستهای داشته باشد و تجربهای هوشمند و مقرونبهصرفه برای کاربران فراهم کند. بهویژه در زمینههای پرسش و پاسخ دانش، تولید محتوا و جستجو عملکرد خوبی دارد."
},
- "llama-3.1-70b-instruct": {
- "description": "مدل Llama 3.1 70B Instruct با 70 میلیارد پارامتر، قادر به ارائه عملکرد برجسته در تولید متنهای بزرگ و انجام وظایف دستوری است."
- },
"llama-3.1-70b-versatile": {
"description": "لاما 3.1 70B توانایی استدلال هوش مصنوعی قویتری را ارائه میدهد، مناسب برای برنامههای پیچیده، پشتیبانی از پردازشهای محاسباتی فراوان و تضمین کارایی و دقت بالا."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B یک مدل با کارایی بالا است که توانایی تولید سریع متن را فراهم میکند و برای کاربردهایی که به بهرهوری و صرفهجویی در هزینه در مقیاس بزرگ نیاز دارند، بسیار مناسب است."
},
- "llama-3.1-8b-instruct": {
- "description": "مدل Llama 3.1 8B Instruct با 8 میلیارد پارامتر، قابلیت اجرای کارهای مبتنی بر دستورات تصویری را بهطور مؤثر دارد و توانایی تولید متن با کیفیت بالا را ارائه میدهد."
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "مدل Llama 3.1 Sonar Huge Online با 405 میلیارد پارامتر، پشتیبانی از طول زمینه حدود 127,000 نشانه، طراحی شده برای برنامههای چت آنلاین پیچیده."
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "مدل Llama 3.1 Sonar Large Chat با 70 میلیارد پارامتر، پشتیبانی از طول زمینه حدود 127,000 نشانه، مناسب برای وظایف پیچیده چت آفلاین."
- },
"llama-3.1-sonar-large-128k-online": {
"description": "مدل Llama 3.1 Sonar Large Online با 70 میلیارد پارامتر، پشتیبانی از طول زمینه حدود 127,000 نشانه، مناسب برای وظایف چت با حجم بالا و متنوع."
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "مدل Llama 3.1 Sonar Small Chat با 8 میلیارد پارامتر، بهطور خاص برای چت آفلاین طراحی شده و از طول زمینهای حدود 127,000 نشانه پشتیبانی میکند."
- },
"llama-3.1-sonar-small-128k-online": {
"description": "مدل Llama 3.1 Sonar Small Online با 8 میلیارد پارامتر، پشتیبانی از طول زمینهای حدود 127,000 نشانه، بهطور ویژه برای چت آنلاین طراحی شده و میتواند بهطور کارآمد انواع تعاملات متنی را پردازش کند."
},
@@ -1356,10 +1335,13 @@
"description": "Solar Pro یک مدل هوش مصنوعی پیشرفته از Upstage است که بر توانایی پیروی از دستورات با استفاده از یک GPU تمرکز دارد و امتیاز IFEval بالای 80 را کسب کرده است. در حال حاضر از زبان انگلیسی پشتیبانی میکند و نسخه رسمی آن برای نوامبر 2024 برنامهریزی شده است که پشتیبانی از زبانهای بیشتر و طول زمینه را گسترش خواهد داد."
},
"sonar": {
- "description": "Perplexity Sonar is the most efficient and cost-effective search solutions available. It gives you fast, straightforward answers."
+ "description": "محصول جستجوی سبک بر اساس زمینه جستجو که سریعتر و ارزانتر از Sonar Pro است."
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro is the most efficient and cost-effective search solutions available. It tackles complex questions that need deeper research and provides more sources."
+ "description": "محصول جستجوی پیشرفته که از جستجوی زمینه پشتیبانی میکند و قابلیتهای پیشرفتهای برای پرسش و پیگیری دارد."
+ },
+ "sonar-reasoning": {
+ "description": "محصول جدید API که توسط مدل استدلال DeepSeek پشتیبانی میشود."
},
"step-1-128k": {
"description": "تعادل بین عملکرد و هزینه، مناسب برای سناریوهای عمومی."
diff --git a/locales/fr-FR/models.json b/locales/fr-FR/models.json
index 2c5ebce4e9525..1d4c35a55220c 100644
--- a/locales/fr-FR/models.json
+++ b/locales/fr-FR/models.json
@@ -323,21 +323,15 @@
"abab7-chat-preview": {
"description": "Par rapport à la série de modèles abab6.5, il y a eu une amélioration significative des capacités en matière de textes longs, de mathématiques et d'écriture."
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "Le modèle d'appel de fonction open source de Fireworks offre d'excellentes capacités d'exécution d'instructions et des caractéristiques personnalisables."
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1 est un modèle de langage de grande taille à la pointe de la technologie, optimisé par apprentissage renforcé et données de démarrage à froid, offrant d'excellentes performances en raisonnement, mathématiques et programmation."
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "Firefunction-v2, récemment lancé par Fireworks, est un modèle d'appel de fonction performant, développé sur la base de Llama-3 et optimisé pour des scénarios tels que les appels de fonction, les dialogues et le suivi d'instructions."
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b est un modèle de langage visuel capable de recevoir simultanément des entrées d'images et de texte, entraîné sur des données de haute qualité, adapté aux tâches multimodales."
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "Modèle de langage puissant de Deepseek basé sur un mélange d'experts (MoE), avec un total de 671B de paramètres, activant 37B de paramètres par jeton."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Le modèle d'instructions Llama 3 70B est optimisé pour les dialogues multilingues et la compréhension du langage naturel, surpassant la plupart des modèles concurrents."
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "Le modèle d'instructions Llama 3 70B (version HF) est conforme aux résultats de l'implémentation officielle, adapté aux tâches de suivi d'instructions de haute qualité."
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Le modèle d'instructions Llama 3 8B est optimisé pour les dialogues et les tâches multilingues, offrant des performances exceptionnelles et efficaces."
},
@@ -356,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Modèle d'inférence d'image ajusté par instructions de Meta avec 11B paramètres. Ce modèle est optimisé pour la reconnaissance visuelle, l'inférence d'image, la description d'image et pour répondre à des questions générales sur l'image. Il est capable de comprendre des données visuelles, comme des graphiques et des diagrammes, et de combler le fossé entre la vision et le langage en générant des descriptions textuelles des détails de l'image."
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "Le modèle d'instructions Llama 3.2 1B est un modèle multilingue léger lancé par Meta. Ce modèle vise à améliorer l'efficacité, offrant des améliorations significatives en matière de latence et de coût par rapport aux modèles plus grands. Les cas d'utilisation incluent la recherche et le résumé."
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Le modèle d'instructions Llama 3.2 3B est un modèle multilingue léger lancé par Meta. Ce modèle vise à améliorer l'efficacité, offrant des améliorations significatives en matière de latence et de coût par rapport aux modèles plus grands. Les cas d'utilisation incluent les requêtes, la réécriture de prompts et l'assistance à l'écriture."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Modèle d'inférence d'image ajusté par instructions de Meta avec 90B paramètres. Ce modèle est optimisé pour la reconnaissance visuelle, l'inférence d'image, la description d'image et pour répondre à des questions générales sur l'image. Il est capable de comprendre des données visuelles, comme des graphiques et des diagrammes, et de combler le fossé entre la vision et le langage en générant des descriptions textuelles des détails de l'image."
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instruct est la version mise à jour de Llama 3.1 70B de décembre. Ce modèle a été amélioré par rapport à Llama 3.1 70B (publié en juillet 2024), renforçant les appels d'outils, le support multilingue, ainsi que les capacités en mathématiques et en programmation. Ce modèle atteint des niveaux de performance de pointe dans le raisonnement, les mathématiques et le respect des instructions, tout en offrant des performances similaires à celles du 3.1 405B, avec des avantages significatifs en termes de vitesse et de coût."
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "Modèle de 24B paramètres, doté de capacités de pointe comparables à celles de modèles plus grands."
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Le modèle d'instructions Mixtral MoE 8x22B, avec des paramètres à grande échelle et une architecture multi-experts, prend en charge efficacement le traitement de tâches complexes."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Le modèle d'instructions Mixtral MoE 8x7B, avec une architecture multi-experts, offre un suivi et une exécution d'instructions efficaces."
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "Le modèle d'instructions Mixtral MoE 8x7B (version HF) offre des performances conformes à l'implémentation officielle, adapté à divers scénarios de tâches efficaces."
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "Le modèle MythoMax L2 13B, combinant des techniques de fusion novatrices, excelle dans la narration et le jeu de rôle."
},
@@ -383,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "Le modèle QwQ est un modèle de recherche expérimental développé par l'équipe Qwen, axé sur l'amélioration des capacités de raisonnement de l'IA."
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "La version 72B du modèle Qwen-VL est le fruit de la dernière itération d'Alibaba, représentant près d'un an d'innovation."
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 est une série de modèles de langage à décodage uniquement développée par l'équipe Qwen d'Alibaba Cloud. Ces modèles sont offerts en différentes tailles, y compris 0.5B, 1.5B, 3B, 7B, 14B, 32B et 72B, avec des variantes de base (base) et d'instruction (instruct)."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct est la dernière version de la série de modèles de langage à grande échelle spécifique au code publiée par Alibaba Cloud. Ce modèle, basé sur Qwen2.5, a été formé avec 55 trillions de tokens, améliorant considérablement les capacités de génération, de raisonnement et de correction de code. Il renforce non seulement les capacités de codage, mais maintient également des avantages en mathématiques et en compétences générales. Le modèle fournit une base plus complète pour des applications pratiques telles que les agents de code."
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "Le modèle StarCoder 15.5B prend en charge des tâches de programmation avancées, avec des capacités multilingues améliorées, adapté à la génération et à la compréhension de code complexes."
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "Le modèle StarCoder 7B est entraîné sur plus de 80 langages de programmation, offrant d'excellentes capacités de complétion de code et de compréhension contextuelle."
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "Le modèle Yi-Large offre d'excellentes capacités de traitement multilingue, adapté à diverses tâches de génération et de compréhension de langage."
},
@@ -887,30 +878,18 @@
"lite": {
"description": "Spark Lite est un modèle de langage léger, offrant une latence extrêmement faible et une capacité de traitement efficace, entièrement gratuit et ouvert, prenant en charge la recherche en temps réel. Sa capacité de réponse rapide le rend exceptionnel pour les applications d'inférence sur des appareils à faible puissance de calcul et pour le réglage des modèles, offrant aux utilisateurs un excellent rapport coût-efficacité et une expérience intelligente, en particulier dans les scénarios de questions-réponses, de génération de contenu et de recherche."
},
- "llama-3.1-70b-instruct": {
- "description": "Le modèle Llama 3.1 70B Instruct, avec 70B de paramètres, offre des performances exceptionnelles dans la génération de texte et les tâches d'instructions."
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B offre une capacité de raisonnement AI plus puissante, adaptée aux applications complexes, prenant en charge un traitement de calcul intensif tout en garantissant efficacité et précision."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B est un modèle à haute performance, offrant une capacité de génération de texte rapide, particulièrement adapté aux scénarios d'application nécessitant une efficacité à grande échelle et un rapport coût-efficacité."
},
- "llama-3.1-8b-instruct": {
- "description": "Le modèle Llama 3.1 8B Instruct, avec 8B de paramètres, prend en charge l'exécution efficace des tâches d'instructions visuelles, offrant d'excellentes capacités de génération de texte."
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "Le modèle Llama 3.1 Sonar Huge Online, avec 405B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, conçu pour des applications de chat en ligne complexes."
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "Le modèle Llama 3.1 Sonar Large Chat, avec 70B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, adapté aux tâches de chat hors ligne complexes."
- },
"llama-3.1-sonar-large-128k-online": {
"description": "Le modèle Llama 3.1 Sonar Large Online, avec 70B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, adapté aux tâches de chat à haute capacité et diversifiées."
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "Le modèle Llama 3.1 Sonar Small Chat, avec 8B de paramètres, est conçu pour le chat hors ligne, prenant en charge une longueur de contexte d'environ 127 000 jetons."
- },
"llama-3.1-sonar-small-128k-online": {
"description": "Le modèle Llama 3.1 Sonar Small Online, avec 8B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, conçu pour le chat en ligne, capable de traiter efficacement diverses interactions textuelles."
},
@@ -1356,10 +1335,13 @@
"description": "Solar Pro est un LLM hautement intelligent lancé par Upstage, axé sur la capacité de suivi des instructions sur un seul GPU, avec un score IFEval supérieur à 80. Actuellement, il supporte l'anglais, et la version officielle est prévue pour novembre 2024, avec une extension du support linguistique et de la longueur du contexte."
},
"sonar": {
- "description": "Perplexity Sonar is the most efficient and cost-effective search solutions available. It gives you fast, straightforward answers."
+ "description": "Produit de recherche léger basé sur le contexte de recherche, plus rapide et moins cher que Sonar Pro."
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro is the most efficient and cost-effective search solutions available. It tackles complex questions that need deeper research and provides more sources."
+ "description": "Produit de recherche avancé prenant en charge le contexte de recherche, avec des requêtes avancées et un suivi."
+ },
+ "sonar-reasoning": {
+ "description": "Nouveau produit API soutenu par le modèle de raisonnement DeepSeek."
},
"step-1-128k": {
"description": "Équilibre entre performance et coût, adapté à des scénarios généraux."
diff --git a/locales/it-IT/models.json b/locales/it-IT/models.json
index 2ebff4cedefea..7f4532738ed5a 100644
--- a/locales/it-IT/models.json
+++ b/locales/it-IT/models.json
@@ -323,21 +323,15 @@
"abab7-chat-preview": {
"description": "Rispetto alla serie di modelli abab6.5, ci sono stati notevoli miglioramenti nelle capacità di elaborazione di testi lunghi, matematica e scrittura."
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "Il modello open source di chiamata di funzione di Fireworks offre capacità di esecuzione di istruzioni eccezionali e caratteristiche personalizzabili."
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1 è un modello linguistico di grandi dimensioni all'avanguardia, ottimizzato tramite apprendimento rinforzato e dati di cold start, con prestazioni eccezionali nel ragionamento, nella matematica e nella programmazione."
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "Firefunction-v2, l'ultima offerta di Fireworks, è un modello di chiamata di funzione ad alte prestazioni, sviluppato su Llama-3 e ottimizzato per scenari come chiamate di funzione, dialogo e seguimento di istruzioni."
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b è un modello di linguaggio visivo in grado di ricevere input sia visivi che testuali, addestrato su dati di alta qualità, adatto per compiti multimodali."
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "Un potente modello linguistico Mixture-of-Experts (MoE) fornito da Deepseek, con un totale di 671B di parametri, attivando 37B di parametri per ogni token."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Il modello di istruzioni Llama 3 70B è ottimizzato per dialoghi multilingue e comprensione del linguaggio naturale, superando le prestazioni della maggior parte dei modelli concorrenti."
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "Il modello di istruzioni Llama 3 70B (versione HF) è allineato con i risultati dell'implementazione ufficiale, adatto per compiti di seguimento di istruzioni di alta qualità."
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Il modello di istruzioni Llama 3 8B è ottimizzato per dialoghi e compiti multilingue, offrendo prestazioni eccellenti e alta efficienza."
},
@@ -356,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Modello di ragionamento visivo di Meta con 11 miliardi di parametri. Questo modello è ottimizzato per il riconoscimento visivo, il ragionamento visivo, la descrizione delle immagini e la risposta a domande generali riguardanti le immagini. Questo modello è in grado di comprendere dati visivi, come grafici e tabelle, e colmare il divario tra visione e linguaggio generando descrizioni testuali dei dettagli delle immagini."
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "Il modello di istruzioni Llama 3.2 1B è un modello multilingue leggero lanciato da Meta. Questo modello è progettato per migliorare l'efficienza, offrendo miglioramenti significativi in termini di latenza e costi rispetto a modelli più grandi. I casi d'uso esemplari di questo modello includono recupero e sintesi."
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Il modello di istruzioni Llama 3.2 3B è un modello multilingue leggero lanciato da Meta. Questo modello è progettato per migliorare l'efficienza, offrendo miglioramenti significativi in termini di latenza e costi rispetto a modelli più grandi. I casi d'uso esemplari di questo modello includono query e riscrittura di suggerimenti, nonché supporto alla scrittura."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Modello di ragionamento visivo di Meta con 90 miliardi di parametri. Questo modello è ottimizzato per il riconoscimento visivo, il ragionamento visivo, la descrizione delle immagini e la risposta a domande generali riguardanti le immagini. Questo modello è in grado di comprendere dati visivi, come grafici e tabelle, e colmare il divario tra visione e linguaggio generando descrizioni testuali dei dettagli delle immagini."
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instruct è la versione aggiornata di dicembre di Llama 3.1 70B. Questo modello è stato migliorato rispetto a Llama 3.1 70B (rilasciato a luglio 2024), potenziando le capacità di chiamata degli strumenti, il supporto per testi multilingue, le abilità matematiche e di programmazione. Il modello raggiunge livelli di eccellenza nel ragionamento, nella matematica e nel rispetto delle istruzioni, offrendo prestazioni simili a quelle di 3.1 405B, con vantaggi significativi in termini di velocità e costi."
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "Modello con 24B di parametri, dotato di capacità all'avanguardia comparabili a modelli di dimensioni maggiori."
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Il modello di istruzioni Mixtral MoE 8x22B, con parametri su larga scala e architettura multi-esperto, supporta in modo completo l'elaborazione efficiente di compiti complessi."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Il modello di istruzioni Mixtral MoE 8x7B, con architettura multi-esperto, offre un'elevata efficienza nel seguire e eseguire istruzioni."
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "Il modello di istruzioni Mixtral MoE 8x7B (versione HF) ha prestazioni coerenti con l'implementazione ufficiale, adatto per vari scenari di compiti efficienti."
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "Il modello MythoMax L2 13B combina tecnologie di fusione innovative, specializzandosi in narrazione e interpretazione di ruoli."
},
@@ -383,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "Il modello QwQ è un modello di ricerca sperimentale sviluppato dal team Qwen, focalizzato sul potenziamento delle capacità di ragionamento dell'IA."
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "La versione 72B del modello Qwen-VL è il risultato dell'ultima iterazione di Alibaba, rappresentando quasi un anno di innovazione."
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 è una serie di modelli linguistici solo decoder sviluppata dal team Qwen di Alibaba Cloud. Questi modelli offrono dimensioni diverse, tra cui 0.5B, 1.5B, 3B, 7B, 14B, 32B e 72B, e ci sono varianti base e di istruzione."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct è l'ultima versione della serie di modelli linguistici di grandi dimensioni specifici per il codice rilasciata da Alibaba Cloud. Questo modello, basato su Qwen2.5, ha migliorato significativamente le capacità di generazione, ragionamento e riparazione del codice grazie all'addestramento su 55 trilioni di token. Ha potenziato non solo le capacità di codifica, ma ha anche mantenuto i vantaggi nelle abilità matematiche e generali. Il modello fornisce una base più completa per applicazioni pratiche come agenti di codice."
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "Il modello StarCoder 15.5B supporta compiti di programmazione avanzati, con capacità multilingue potenziate, adatto per la generazione e comprensione di codice complesso."
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "Il modello StarCoder 7B è addestrato su oltre 80 linguaggi di programmazione, con eccellenti capacità di completamento del codice e comprensione del contesto."
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "Il modello Yi-Large offre capacità eccezionali di elaborazione multilingue, utilizzabile per vari compiti di generazione e comprensione del linguaggio."
},
@@ -887,30 +878,18 @@
"lite": {
"description": "Spark Lite è un modello di linguaggio di grandi dimensioni leggero, con latenza estremamente bassa e capacità di elaborazione efficiente, completamente gratuito e aperto, supporta funzionalità di ricerca online in tempo reale. La sua caratteristica di risposta rapida lo rende eccellente per applicazioni di inferenza su dispositivi a bassa potenza e per il fine-tuning dei modelli, offrendo agli utenti un'ottima efficienza dei costi e un'esperienza intelligente, soprattutto nei contesti di domande e risposte, generazione di contenuti e ricerca."
},
- "llama-3.1-70b-instruct": {
- "description": "Il modello Llama 3.1 70B Instruct, con 70B parametri, offre prestazioni eccezionali in generazione di testi di grandi dimensioni e compiti di istruzione."
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B offre capacità di ragionamento AI più potenti, adatto per applicazioni complesse, supporta un'elaborazione computazionale elevata garantendo efficienza e precisione."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B è un modello ad alte prestazioni, offre capacità di generazione di testo rapida, particolarmente adatto per scenari applicativi che richiedono efficienza su larga scala e costi contenuti."
},
- "llama-3.1-8b-instruct": {
- "description": "Il modello Llama 3.1 8B Instruct, con 8B parametri, supporta l'esecuzione efficiente di compiti di istruzione, offrendo capacità di generazione testuale di alta qualità."
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "Il modello Llama 3.1 Sonar Huge Online, con 405B parametri, supporta una lunghezza di contesto di circa 127.000 token, progettato per applicazioni di chat online complesse."
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "Il modello Llama 3.1 Sonar Large Chat, con 70B parametri, supporta una lunghezza di contesto di circa 127.000 token, adatto per compiti di chat offline complessi."
- },
"llama-3.1-sonar-large-128k-online": {
"description": "Il modello Llama 3.1 Sonar Large Online, con 70B parametri, supporta una lunghezza di contesto di circa 127.000 token, adatto per compiti di chat ad alta capacità e diversificati."
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "Il modello Llama 3.1 Sonar Small Chat, con 8B parametri, è progettato per chat offline, supportando una lunghezza di contesto di circa 127.000 token."
- },
"llama-3.1-sonar-small-128k-online": {
"description": "Il modello Llama 3.1 Sonar Small Online, con 8B parametri, supporta una lunghezza di contesto di circa 127.000 token, progettato per chat online, in grado di gestire interazioni testuali in modo efficiente."
},
@@ -1356,10 +1335,13 @@
"description": "Solar Pro è un LLM altamente intelligente lanciato da Upstage, focalizzato sulla capacità di seguire istruzioni su singolo GPU, con un punteggio IFEval superiore a 80. Attualmente supporta l'inglese, con una versione ufficiale prevista per novembre 2024, che espanderà il supporto linguistico e la lunghezza del contesto."
},
"sonar": {
- "description": "Perplexity Sonar is the most efficient and cost-effective search solutions available. It gives you fast, straightforward answers."
+ "description": "Prodotto di ricerca leggero basato sul contesto di ricerca, più veloce e più economico rispetto a Sonar Pro."
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro is the most efficient and cost-effective search solutions available. It tackles complex questions that need deeper research and provides more sources."
+ "description": "Prodotto di ricerca avanzata che supporta il contesto di ricerca, query avanzate e follow-up."
+ },
+ "sonar-reasoning": {
+ "description": "Nuovo prodotto API supportato dal modello di ragionamento DeepSeek."
},
"step-1-128k": {
"description": "Equilibrio tra prestazioni e costi, adatto per scenari generali."
diff --git a/locales/ja-JP/models.json b/locales/ja-JP/models.json
index 038e56764f9d6..4577b496c9e6f 100644
--- a/locales/ja-JP/models.json
+++ b/locales/ja-JP/models.json
@@ -323,21 +323,15 @@
"abab7-chat-preview": {
"description": "abab6.5シリーズモデルに比べて、長文、数学、執筆などの能力が大幅に向上しています。"
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "Fireworksのオープンソース関数呼び出しモデルは、卓越した指示実行能力とオープンでカスタマイズ可能な特性を提供します。"
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1は、強化学習とコールドスタートデータの最適化を経た最先端の大規模言語モデルで、優れた推論、数学、プログラミング性能を持っています。"
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "Fireworks社の最新のFirefunction-v2は、Llama-3を基に開発された高性能な関数呼び出しモデルであり、多くの最適化を経て、特に関数呼び出し、対話、指示のフォローなどのシナリオに適しています。"
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13bは、画像とテキストの入力を同時に受け取ることができる視覚言語モデルであり、高品質なデータで訓練されており、多モーダルタスクに適しています。"
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "Deepseekが提供する強力なMixture-of-Experts (MoE)言語モデルで、総パラメータ数は671Bであり、各トークンは37Bのパラメータを活性化します。"
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Llama 3 70B指示モデルは、多言語対話と自然言語理解に最適化されており、ほとんどの競合モデルを上回る性能を持っています。"
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "Llama 3 70B指示モデル(HFバージョン)は、公式実装結果と一致し、高品質な指示フォロータスクに適しています。"
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Llama 3 8B指示モデルは、対話や多言語タスクに最適化されており、卓越した効率を発揮します。"
},
@@ -356,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Metaの11Bパラメータ指示調整画像推論モデルです。このモデルは視覚認識、画像推論、画像説明、および画像に関する一般的な質問への回答に最適化されています。このモデルは、グラフや図表などの視覚データを理解し、画像の詳細をテキストで記述することで、視覚と言語の間のギャップを埋めることができます。"
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "Llama 3.2 1B指示モデルはMetaが発表した軽量な多言語モデルです。このモデルは効率を向上させることを目的としており、より大規模なモデルと比較して遅延とコストの面で大きな改善を提供します。このモデルの使用例には、情報検索や要約が含まれます。"
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Llama 3.2 3B指示モデルはMetaが発表した軽量な多言語モデルです。このモデルは効率を向上させることを目的としており、より大規模なモデルと比較して遅延とコストの面で大きな改善を提供します。このモデルの使用例には、問い合わせやプロンプトのリライト、執筆支援が含まれます。"
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Metaの90Bパラメータ指示調整画像推論モデルです。このモデルは視覚認識、画像推論、画像説明、および画像に関する一般的な質問への回答に最適化されています。このモデルは、グラフや図表などの視覚データを理解し、画像の詳細をテキストで記述することで、視覚と言語の間のギャップを埋めることができます。"
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instructは、Llama 3.1 70Bの12月の更新版です。このモデルは、2024年7月にリリースされたLlama 3.1 70Bを基に改良され、ツール呼び出し、多言語テキストサポート、数学およびプログラミング能力が強化されています。このモデルは、推論、数学、指示遵守の面で業界の最前線に達しており、3.1 405Bと同等の性能を提供しつつ、速度とコストにおいて顕著な利点を持っています。"
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "24Bパラメータモデルで、より大規模なモデルと同等の最先端の能力を備えています。"
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Mixtral MoE 8x22B指示モデルは、大規模なパラメータと多専門家アーキテクチャを持ち、複雑なタスクの高効率処理を全方位でサポートします。"
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Mixtral MoE 8x7B指示モデルは、多専門家アーキテクチャを提供し、高効率の指示フォローと実行をサポートします。"
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "Mixtral MoE 8x7B指示モデル(HFバージョン)は、公式実装と一致し、さまざまな高効率タスクシナリオに適しています。"
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "MythoMax L2 13Bモデルは、新しい統合技術を組み合わせており、物語やキャラクターの役割に優れています。"
},
@@ -383,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "QwQモデルはQwenチームによって開発された実験的な研究モデルで、AIの推論能力を強化することに焦点を当てています。"
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "Qwen-VLモデルの72Bバージョンは、アリババの最新のイテレーションの成果であり、近年の革新を代表しています。"
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5はAlibaba Cloud Qwenチームによって開発された一連のデコーダーのみを含む言語モデルです。これらのモデルは、0.5B、1.5B、3B、7B、14B、32B、72Bなど、さまざまなサイズを提供し、ベース版と指示版の2種類のバリエーションがあります。"
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B InstructはAlibaba Cloudが発表したコード特化型大規模言語モデルシリーズの最新バージョンです。このモデルはQwen2.5を基に、55兆トークンの訓練を通じて、コード生成、推論、修正能力を大幅に向上させました。コーディング能力を強化するだけでなく、数学および一般的な能力の利点も維持しています。このモデルはコードエージェントなどの実際のアプリケーションに対して、より包括的な基盤を提供します。"
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "StarCoder 15.5Bモデルは、高度なプログラミングタスクをサポートし、多言語能力を強化し、複雑なコード生成と理解に適しています。"
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "StarCoder 7Bモデルは、80以上のプログラミング言語に特化して訓練されており、優れたプログラミング補完能力と文脈理解を持っています。"
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "Yi-Largeモデルは、卓越した多言語処理能力を持ち、さまざまな言語生成と理解タスクに使用できます。"
},
@@ -887,30 +878,18 @@
"lite": {
"description": "Spark Liteは軽量な大規模言語モデルで、非常に低い遅延と高い処理能力を備えています。完全に無料でオープンであり、リアルタイムのオンライン検索機能をサポートしています。その迅速な応答特性により、低算力デバイスでの推論アプリケーションやモデルの微調整において優れたパフォーマンスを発揮し、特に知識問答、コンテンツ生成、検索シーンにおいて優れたコストパフォーマンスとインテリジェントな体験を提供します。"
},
- "llama-3.1-70b-instruct": {
- "description": "Llama 3.1 70B Instructモデルは、70Bパラメータを持ち、大規模なテキスト生成と指示タスクで卓越した性能を提供します。"
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70Bは、より強力なAI推論能力を提供し、複雑なアプリケーションに適しており、非常に多くの計算処理をサポートし、高効率と精度を保証します。"
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8Bは、高効率モデルであり、迅速なテキスト生成能力を提供し、大規模な効率とコスト効果が求められるアプリケーションシナリオに非常に適しています。"
},
- "llama-3.1-8b-instruct": {
- "description": "Llama 3.1 8B Instructモデルは、8Bパラメータを持ち、画面指示タスクの高効率な実行をサポートし、優れたテキスト生成能力を提供します。"
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "Llama 3.1 Sonar Huge Onlineモデルは、405Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、複雑なオンラインチャットアプリケーション用に設計されています。"
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "Llama 3.1 Sonar Large Chatモデルは、70Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、複雑なオフラインチャットタスクに適しています。"
- },
"llama-3.1-sonar-large-128k-online": {
"description": "Llama 3.1 Sonar Large Onlineモデルは、70Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、高容量で多様なチャットタスクに適しています。"
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "Llama 3.1 Sonar Small Chatモデルは、8Bパラメータを持ち、オフラインチャット用に設計されており、約127,000トークンのコンテキスト長をサポートします。"
- },
"llama-3.1-sonar-small-128k-online": {
"description": "Llama 3.1 Sonar Small Onlineモデルは、8Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、オンラインチャット用に設計されており、さまざまなテキストインタラクションを効率的に処理できます。"
},
@@ -1356,10 +1335,13 @@
"description": "Solar ProはUpstageが発表した高インテリジェンスLLMで、単一GPUの指示追従能力に特化しており、IFEvalスコアは80以上です。現在は英語をサポートしており、正式版は2024年11月にリリース予定で、言語サポートとコンテキスト長を拡張します。"
},
"sonar": {
- "description": "Perplexity Sonar is the most efficient and cost-effective search solutions available. It gives you fast, straightforward answers."
+ "description": "検索コンテキストに基づく軽量検索製品で、Sonar Proよりも速く、安価です。"
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro is the most efficient and cost-effective search solutions available. It tackles complex questions that need deeper research and provides more sources."
+ "description": "検索コンテキストをサポートする高度な検索製品で、高度なクエリとフォローアップをサポートします。"
+ },
+ "sonar-reasoning": {
+ "description": "DeepSeek推論モデルによってサポートされる新しいAPI製品です。"
},
"step-1-128k": {
"description": "性能とコストのバランスを取り、一般的なシナリオに適しています。"
diff --git a/locales/ko-KR/models.json b/locales/ko-KR/models.json
index 40ee7da4b9834..f40c55408ef03 100644
--- a/locales/ko-KR/models.json
+++ b/locales/ko-KR/models.json
@@ -1,5 +1,4 @@
{
- "0": "{",
"01-ai/Yi-1.5-34B-Chat-16K": {
"description": "Yi-1.5 34B는 풍부한 훈련 샘플을 통해 산업 응용에서 우수한 성능을 제공합니다."
},
@@ -9,9 +8,6 @@
"01-ai/Yi-1.5-9B-Chat-16K": {
"description": "Yi-1.5 9B는 16K 토큰을 지원하며, 효율적이고 매끄러운 언어 생성 능력을 제공합니다."
},
- "1": "\n",
- "2": " ",
- "3": " ",
"360gpt-pro": {
"description": "360GPT Pro는 360 AI 모델 시리즈의 중요한 구성원으로, 다양한 자연어 응용 시나리오에 맞춘 효율적인 텍스트 처리 능력을 갖추고 있으며, 긴 텍스트 이해 및 다중 회화 기능을 지원합니다."
},
@@ -327,21 +323,15 @@
"abab7-chat-preview": {
"description": "abab6.5 시리즈 모델에 비해 긴 글, 수학, 작문 등에서 능력이 크게 향상되었습니다."
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "Fireworks 오픈 소스 함수 호출 모델로, 뛰어난 지시 실행 능력과 개방형 커스터마이징 기능을 제공합니다."
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1은 최첨단 대형 언어 모델로, 강화 학습과 콜드 스타트 데이터를 최적화하여 뛰어난 추론, 수학 및 프로그래밍 성능을 제공합니다."
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "Fireworks 회사의 최신 Firefunction-v2는 Llama-3를 기반으로 개발된 뛰어난 함수 호출 모델로, 많은 최적화를 통해 함수 호출, 대화 및 지시 따르기 등의 시나리오에 특히 적합합니다."
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b는 이미지와 텍스트 입력을 동시에 수용할 수 있는 비주얼 언어 모델로, 고품질 데이터로 훈련되어 다중 모달 작업에 적합합니다."
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "Deepseek에서 제공하는 강력한 Mixture-of-Experts (MoE) 언어 모델로, 총 매개변수 수는 671B이며, 각 토큰은 37B 매개변수를 활성화합니다."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Llama 3 70B 지시 모델은 다국어 대화 및 자연어 이해를 위해 최적화되어 있으며, 대부분의 경쟁 모델보다 성능이 우수합니다."
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "Llama 3 70B 지시 모델(HF 버전)은 공식 구현 결과와 일치하며, 고품질의 지시 따르기 작업에 적합합니다."
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Llama 3 8B 지시 모델은 대화 및 다국어 작업을 위해 최적화되어 있으며, 뛰어난 성능과 효율성을 제공합니다."
},
@@ -360,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Meta의 11B 파라미터 지시 조정 이미지 추론 모델입니다. 이 모델은 시각 인식, 이미지 추론, 이미지 설명 및 이미지에 대한 일반적인 질문에 답변하기 위해 최적화되었습니다. 이 모델은 차트 및 그래프와 같은 시각 데이터를 이해할 수 있으며, 이미지 세부 사항을 설명하는 텍스트를 생성하여 시각과 언어 간의 격차를 메웁니다."
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "Llama 3.2 1B 지시 모델은 Meta가 출시한 경량 다국어 모델입니다. 이 모델은 효율성을 높이기 위해 설계되었으며, 더 큰 모델에 비해 지연 시간과 비용에서 상당한 개선을 제공합니다. 이 모델의 예시 사용 사례에는 검색 및 요약이 포함됩니다."
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Llama 3.2 3B 지시 모델은 Meta가 출시한 경량 다국어 모델입니다. 이 모델은 효율성을 높이기 위해 설계되었으며, 더 큰 모델에 비해 지연 시간과 비용에서 상당한 개선을 제공합니다. 이 모델의 예시 사용 사례에는 쿼리 및 프롬프트 재작성, 작문 지원이 포함됩니다."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Meta의 90B 파라미터 지시 조정 이미지 추론 모델입니다. 이 모델은 시각 인식, 이미지 추론, 이미지 설명 및 이미지에 대한 일반적인 질문에 답변하기 위해 최적화되었습니다. 이 모델은 차트 및 그래프와 같은 시각 데이터를 이해할 수 있으며, 이미지 세부 사항을 설명하는 텍스트를 생성하여 시각과 언어 간의 격차를 메웁니다."
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instruct는 Llama 3.1 70B의 12월 업데이트 버전입니다. 이 모델은 Llama 3.1 70B(2024년 7월 출시)를 기반으로 개선되어 도구 호출, 다국어 텍스트 지원, 수학 및 프로그래밍 능력을 강화했습니다. 이 모델은 추론, 수학 및 지시 준수에서 업계 최고 수준에 도달했으며, 3.1 405B와 유사한 성능을 제공하면서 속도와 비용에서 상당한 이점을 가지고 있습니다."
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "24B 매개변수 모델로, 더 큰 모델과 동등한 최첨단 능력을 갖추고 있습니다."
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Mixtral MoE 8x22B 지시 모델은 대규모 매개변수와 다수의 전문가 아키텍처를 통해 복잡한 작업의 효율적인 처리를 전방위적으로 지원합니다."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Mixtral MoE 8x7B 지시 모델은 다수의 전문가 아키텍처를 통해 효율적인 지시 따르기 및 실행을 제공합니다."
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "Mixtral MoE 8x7B 지시 모델(HF 버전)은 성능이 공식 구현과 일치하며, 다양한 효율적인 작업 시나리오에 적합합니다."
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "MythoMax L2 13B 모델은 혁신적인 통합 기술을 결합하여 서사 및 역할 수행에 강점을 보입니다."
},
@@ -387,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "QwQ 모델은 Qwen 팀이 개발한 실험적 연구 모델로, AI 추론 능력을 향상시키는 데 중점을 두고 있습니다."
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "Qwen-VL 모델의 72B 버전은 알리바바의 최신 반복 결과로, 거의 1년간의 혁신을 대표합니다."
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5는 Alibaba Cloud Qwen 팀이 개발한 일련의 디코더 전용 언어 모델입니다. 이러한 모델은 0.5B, 1.5B, 3B, 7B, 14B, 32B 및 72B와 같은 다양한 크기를 제공하며, 기본 버전과 지시 버전 두 가지 변형이 있습니다."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct는 Alibaba Cloud에서 발표한 코드 특화 대규모 언어 모델 시리즈의 최신 버전입니다. 이 모델은 Qwen2.5를 기반으로 하여 55조 개의 토큰으로 훈련되어 코드 생성, 추론 및 수정 능력을 크게 향상시켰습니다. 이 모델은 코딩 능력을 강화할 뿐만 아니라 수학 및 일반 능력의 장점도 유지합니다. 모델은 코드 에이전트와 같은 실제 응용 프로그램에 더 포괄적인 기반을 제공합니다."
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "StarCoder 15.5B 모델은 고급 프로그래밍 작업을 지원하며, 다국어 능력이 강화되어 복잡한 코드 생성 및 이해에 적합합니다."
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "StarCoder 7B 모델은 80개 이상의 프로그래밍 언어를 대상으로 훈련되어 뛰어난 프로그래밍 완성 능력과 문맥 이해를 제공합니다."
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "Yi-Large 모델은 뛰어난 다국어 처리 능력을 갖추고 있으며, 다양한 언어 생성 및 이해 작업에 사용될 수 있습니다."
},
@@ -564,6 +551,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2는 오픈 소스 혼합 전문가 코드 모델로, 코드 작업에서 뛰어난 성능을 발휘하며, GPT4-Turbo와 경쟁할 수 있습니다."
},
+ "deepseek-r1": {
+ "description": "DeepSeek-R1은 강화 학습(RL) 기반의 추론 모델로, 모델 내의 반복성과 가독성 문제를 해결합니다. RL 이전에 DeepSeek-R1은 콜드 스타트 데이터를 도입하여 추론 성능을 더욱 최적화했습니다. 수학, 코드 및 추론 작업에서 OpenAI-o1과 유사한 성능을 보이며, 정교하게 설계된 훈련 방법을 통해 전체적인 효과를 향상시켰습니다."
+ },
"deepseek-reasoner": {
"description": "DeepSeek에서 제공하는 추론 모델입니다. 최종 답변을 출력하기 전에 모델은 먼저 사고 과정을 출력하여 최종 답변의 정확성을 높입니다."
},
@@ -888,30 +878,18 @@
"lite": {
"description": "Spark Lite는 경량 대형 언어 모델로, 매우 낮은 지연 시간과 효율적인 처리 능력을 갖추고 있으며, 완전히 무료로 제공되고 실시간 온라인 검색 기능을 지원합니다. 빠른 응답 특성 덕분에 저전력 장치에서의 추론 응용 및 모델 미세 조정에서 뛰어난 성능을 발휘하며, 사용자에게 뛰어난 비용 효율성과 스마트한 경험을 제공합니다. 특히 지식 질문 응답, 콘텐츠 생성 및 검색 시나리오에서 두각을 나타냅니다."
},
- "llama-3.1-70b-instruct": {
- "description": "Llama 3.1 70B Instruct 모델은 70B 매개변수를 갖추고 있으며, 대규모 텍스트 생성 및 지시 작업에서 뛰어난 성능을 제공합니다."
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B는 더 강력한 AI 추론 능력을 제공하며, 복잡한 응용 프로그램에 적합하고, 많은 계산 처리를 지원하며 효율성과 정확성을 보장합니다."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B는 효율적인 모델로, 빠른 텍스트 생성 능력을 제공하며, 대규모 효율성과 비용 효과성이 필요한 응용 프로그램에 매우 적합합니다."
},
- "llama-3.1-8b-instruct": {
- "description": "Llama 3.1 8B Instruct 모델은 8B 매개변수를 갖추고 있으며, 화면 지시 작업의 효율적인 실행을 지원하고 우수한 텍스트 생성 능력을 제공합니다."
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "Llama 3.1 Sonar Huge Online 모델은 405B 매개변수를 갖추고 있으며, 약 127,000개의 토큰의 컨텍스트 길이를 지원하여 복잡한 온라인 채팅 애플리케이션을 위해 설계되었습니다."
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "Llama 3.1 Sonar Large Chat 모델은 70B 매개변수를 갖추고 있으며, 약 127,000개의 토큰의 컨텍스트 길이를 지원하여 복잡한 오프라인 채팅 작업에 적합합니다."
- },
"llama-3.1-sonar-large-128k-online": {
"description": "Llama 3.1 Sonar Large Online 모델은 70B 매개변수를 갖추고 있으며, 약 127,000개의 토큰의 컨텍스트 길이를 지원하여 대용량 및 다양한 채팅 작업에 적합합니다."
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "Llama 3.1 Sonar Small Chat 모델은 8B 매개변수를 갖추고 있으며, 오프라인 채팅을 위해 설계되어 약 127,000개의 토큰의 컨텍스트 길이를 지원합니다."
- },
"llama-3.1-sonar-small-128k-online": {
"description": "Llama 3.1 Sonar Small Online 모델은 8B 매개변수를 갖추고 있으며, 약 127,000개의 토큰의 컨텍스트 길이를 지원하여 온라인 채팅을 위해 설계되었습니다."
},
@@ -1357,10 +1335,13 @@
"description": "Solar Pro는 Upstage에서 출시한 고지능 LLM으로, 단일 GPU의 지시 추적 능력에 중점을 두고 있으며, IFEval 점수가 80 이상입니다. 현재 영어를 지원하며, 정식 버전은 2024년 11월에 출시될 예정이며, 언어 지원 및 컨텍스트 길이를 확장할 계획입니다."
},
"sonar": {
- "description": "Perplexity Sonar is the most efficient and cost-effective search solutions available. It gives you fast, straightforward answers."
+ "description": "검색 맥락 기반의 경량 검색 제품으로, Sonar Pro보다 더 빠르고 저렴합니다."
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro is the most efficient and cost-effective search solutions available. It tackles complex questions that need deeper research and provides more sources."
+ "description": "고급 쿼리 및 후속 작업을 지원하는 검색 맥락 기반의 고급 검색 제품입니다."
+ },
+ "sonar-reasoning": {
+ "description": "DeepSeek 추론 모델이 지원하는 새로운 API 제품입니다."
},
"step-1-128k": {
"description": "성능과 비용의 균형을 맞추어 일반적인 시나리오에 적합합니다."
diff --git a/locales/nl-NL/models.json b/locales/nl-NL/models.json
index cd5b4e55a5f93..c4840bc1b1162 100644
--- a/locales/nl-NL/models.json
+++ b/locales/nl-NL/models.json
@@ -323,21 +323,15 @@
"abab7-chat-preview": {
"description": "In vergelijking met de abab6.5-serie modellen zijn er aanzienlijke verbeteringen in de capaciteiten op het gebied van lange teksten, wiskunde, schrijven, enzovoort."
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "Fireworks open-source functie-aanroepmodel biedt uitstekende instructie-uitvoeringscapaciteiten en aanpasbare functies."
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1 is een geavanceerd groot taalmodel, geoptimaliseerd met versterkend leren en koude startdata, met uitstekende prestaties in redeneren, wiskunde en programmeren."
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "Firefunction-v2, ontwikkeld door Fireworks, is een hoogpresterend functie-aanroepmodel, gebaseerd op Llama-3 en geoptimaliseerd voor functie-aanroepen, gesprekken en instructies."
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b is een visueel taalmodel dat zowel afbeeldingen als tekstinvoer kan verwerken, getraind op hoogwaardige gegevens, geschikt voor multimodale taken."
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "Een krachtige Mixture-of-Experts (MoE) taalmodel van Deepseek, met een totaal aantal parameters van 671B, waarbij 37B parameters per token worden geactiveerd."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Llama 3 70B instructiemodel, speciaal geoptimaliseerd voor meertalige gesprekken en natuurlijke taalbegrip, presteert beter dan de meeste concurrerende modellen."
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "Llama 3 70B instructiemodel (HF-versie), consistent met de officiële implementatieresultaten, geschikt voor hoogwaardige instructietaken."
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Llama 3 8B instructiemodel, geoptimaliseerd voor gesprekken en meertalige taken, presteert uitstekend en efficiënt."
},
@@ -356,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Meta's 11B-parameter instructie-geoptimaliseerde beeldredeneringsmodel. Dit model is geoptimaliseerd voor visuele herkenning, beeldredenering, afbeeldingsbeschrijving en het beantwoorden van algemene vragen over afbeeldingen. Dit model kan visuele gegevens begrijpen, zoals diagrammen en grafieken, en overbrugt de kloof tussen visuele informatie en tekst door het genereren van tekstbeschrijvingen van afbeeldingsdetails."
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "Llama 3.2 1B instructiemodel is een lichtgewicht meertalig model geïntroduceerd door Meta. Dit model is ontworpen om de efficiëntie te verhogen, met aanzienlijke verbeteringen in latentie en kosten in vergelijking met grotere modellen. Voorbeelden van gebruikssituaties van dit model zijn ophalen en samenvatten."
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Llama 3.2 3B instructiemodel is een lichtgewicht meertalig model geïntroduceerd door Meta. Dit model is ontworpen om de efficiëntie te verhogen, met aanzienlijke verbeteringen in latentie en kosten in vergelijking met grotere modellen. Voorbeelden van gebruikssituaties van dit model zijn het herformuleren van vragen en prompts, evenals schrijfondersteuning."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Meta's 90B-parameter instructie-geoptimaliseerde beeldredeneringsmodel. Dit model is geoptimaliseerd voor visuele herkenning, beeldredenering, afbeeldingsbeschrijving en het beantwoorden van algemene vragen over afbeeldingen. Dit model kan visuele gegevens begrijpen, zoals diagrammen en grafieken, en overbrugt de kloof tussen visuele informatie en tekst door het genereren van tekstbeschrijvingen van afbeeldingsdetails."
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instruct is de update van december voor Llama 3.1 70B. Dit model is verbeterd op basis van Llama 3.1 70B (uitgebracht in juli 2024) en biedt verbeterde toolaanroepen, ondersteuning voor meertalige teksten, wiskunde en programmeervaardigheden. Het model heeft een toonaangevende prestatie bereikt op het gebied van redeneren, wiskunde en het volgen van instructies, en kan prestaties bieden die vergelijkbaar zijn met die van 3.1 405B, met aanzienlijke voordelen op het gebied van snelheid en kosten."
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "Een model met 24B parameters, dat geavanceerde mogelijkheden biedt die vergelijkbaar zijn met grotere modellen."
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Mixtral MoE 8x22B instructiemodel, met een groot aantal parameters en een multi-expertarchitectuur, biedt uitgebreide ondersteuning voor de efficiënte verwerking van complexe taken."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Mixtral MoE 8x7B instructiemodel, met een multi-expertarchitectuur die efficiënte instructievolging en uitvoering biedt."
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "Mixtral MoE 8x7B instructiemodel (HF-versie), met prestaties die overeenkomen met de officiële implementatie, geschikt voor verschillende efficiënte taakscenario's."
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "MythoMax L2 13B model, dat gebruik maakt van innovatieve samenvoegtechnologie, is goed in verhalen vertellen en rollenspellen."
},
@@ -383,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "Het QwQ-model is een experimenteel onderzoeksmodel ontwikkeld door het Qwen-team, gericht op het verbeteren van de AI-redeneringscapaciteiten."
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "De 72B versie van het Qwen-VL model is het nieuwste resultaat van Alibaba's iteraties, dat bijna een jaar aan innovaties vertegenwoordigt."
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 is een serie decoder-only taalmodellen ontwikkeld door het Alibaba Qwen-team. Deze modellen zijn beschikbaar in verschillende groottes, waaronder 0.5B, 1.5B, 3B, 7B, 14B, 32B en 72B, met zowel een basisversie als een instructieversie."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct is de nieuwste versie van de code-specifieke grote taalmodelreeks die door Alibaba Cloud is uitgebracht. Dit model is aanzienlijk verbeterd in codegeneratie, redenering en herstelcapaciteiten door training met 55 biljoen tokens, gebaseerd op Qwen2.5. Het versterkt niet alleen de coderingscapaciteiten, maar behoudt ook de voordelen van wiskundige en algemene vaardigheden. Het model biedt een meer uitgebreide basis voor praktische toepassingen zoals code-agenten."
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "StarCoder 15.5B model, ondersteunt geavanceerde programmeertaken, met verbeterde meertalige capaciteiten, geschikt voor complexe codegeneratie en -begrip."
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "StarCoder 7B model, getraind op meer dan 80 programmeertalen, met uitstekende programmeervulcapaciteiten en contextbegrip."
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "Yi-Large model, met uitstekende meertalige verwerkingscapaciteiten, geschikt voor verschillende taalgeneratie- en begripstaken."
},
@@ -887,30 +878,18 @@
"lite": {
"description": "Spark Lite is een lichtgewicht groot taalmodel met extreem lage latentie en efficiënte verwerkingscapaciteit. Het is volledig gratis en open, en ondersteunt realtime online zoekfunctionaliteit. De snelle respons maakt het uitermate geschikt voor inferentie op apparaten met lage rekenkracht en modelafstemming, wat gebruikers uitstekende kosteneffectiviteit en een slimme ervaring biedt, vooral in kennisvragen, contentgeneratie en zoekscenario's."
},
- "llama-3.1-70b-instruct": {
- "description": "Llama 3.1 70B Instruct model, met 70B parameters, biedt uitstekende prestaties in grote tekstgeneratie- en instructietaken."
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B biedt krachtigere AI-inferentiecapaciteiten, geschikt voor complexe toepassingen, ondersteunt een enorme rekenverwerking en garandeert efficiëntie en nauwkeurigheid."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B is een hoogpresterend model dat snelle tekstgeneratiecapaciteiten biedt, zeer geschikt voor toepassingen die grootschalige efficiëntie en kosteneffectiviteit vereisen."
},
- "llama-3.1-8b-instruct": {
- "description": "Llama 3.1 8B Instruct model, met 8B parameters, ondersteunt de efficiënte uitvoering van visuele instructietaken en biedt hoogwaardige tekstgeneratiecapaciteiten."
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "Llama 3.1 Sonar Huge Online model, met 405B parameters, ondersteunt een contextlengte van ongeveer 127.000 tokens, ontworpen voor complexe online chattoepassingen."
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "Llama 3.1 Sonar Large Chat model, met 70B parameters, ondersteunt een contextlengte van ongeveer 127.000 tokens, geschikt voor complexe offline chattaken."
- },
"llama-3.1-sonar-large-128k-online": {
"description": "Llama 3.1 Sonar Large Online model, met 70B parameters, ondersteunt een contextlengte van ongeveer 127.000 tokens, geschikt voor hoge capaciteit en diverse chattaken."
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "Llama 3.1 Sonar Small Chat model, met 8B parameters, speciaal ontworpen voor offline chat, ondersteunt een contextlengte van ongeveer 127.000 tokens."
- },
"llama-3.1-sonar-small-128k-online": {
"description": "Llama 3.1 Sonar Small Online model, met 8B parameters, ondersteunt een contextlengte van ongeveer 127.000 tokens, speciaal ontworpen voor online chat en kan efficiënt verschillende tekstinteracties verwerken."
},
@@ -1356,10 +1335,13 @@
"description": "Solar Pro is een zeer intelligent LLM dat is uitgebracht door Upstage, gericht op instructievolging met één GPU, met een IFEval-score van boven de 80. Momenteel ondersteunt het Engels, met een officiële versie die gepland staat voor november 2024, die de taalondersteuning en contextlengte zal uitbreiden."
},
"sonar": {
- "description": "Perplexity Sonar is the most efficient and cost-effective search solutions available. It gives you fast, straightforward answers."
+ "description": "Een lichtgewicht zoekproduct op basis van contextuele zoekopdrachten, sneller en goedkoper dan Sonar Pro."
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro is the most efficient and cost-effective search solutions available. It tackles complex questions that need deeper research and provides more sources."
+ "description": "Een geavanceerd zoekproduct dat contextuele zoekopdrachten ondersteunt, met geavanceerde query's en vervolgacties."
+ },
+ "sonar-reasoning": {
+ "description": "Een nieuw API-product ondersteund door het DeepSeek redeneringsmodel."
},
"step-1-128k": {
"description": "Biedt een balans tussen prestaties en kosten, geschikt voor algemene scenario's."
diff --git a/locales/pl-PL/models.json b/locales/pl-PL/models.json
index 6f9f63a009fc1..3794aab663823 100644
--- a/locales/pl-PL/models.json
+++ b/locales/pl-PL/models.json
@@ -323,21 +323,15 @@
"abab7-chat-preview": {
"description": "W porównaniu do modeli z serii abab6.5, zdolności w zakresie długich tekstów, matematyki i pisania uległy znacznej poprawie."
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "Open source model wywołań funkcji od Fireworks, oferujący doskonałe możliwości wykonania poleceń i otwarte, konfigurowalne cechy."
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1 to zaawansowany model językowy, który został zoptymalizowany dzięki uczeniu przez wzmocnienie i danym z zimnego startu, oferując doskonałe możliwości wnioskowania, matematyki i programowania."
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "Firefunction-v2, najnowszy model firmy Fireworks, to wydajny model wywołań funkcji, opracowany na bazie Llama-3, zoptymalizowany do wywołań funkcji, dialogów i śledzenia poleceń."
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b to model językowy wizualny, który może jednocześnie przyjmować obrazy i tekst, przeszkolony na wysokiej jakości danych, idealny do zadań multimodalnych."
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "Potężny model językowy Mixture-of-Experts (MoE) oferowany przez Deepseek, z całkowitą liczbą parametrów wynoszącą 671 miliardów, aktywującym 37 miliardów parametrów na każdy token."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Model Llama 3 70B Instruct, zaprojektowany do wielojęzycznych dialogów i rozumienia języka naturalnego, przewyższa większość konkurencyjnych modeli."
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "Model Llama 3 70B Instruct (wersja HF), zgodny z wynikami oficjalnej implementacji, idealny do wysokiej jakości zadań śledzenia poleceń."
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Model Llama 3 8B Instruct, zoptymalizowany do dialogów i zadań wielojęzycznych, oferuje doskonałe i efektywne osiągi."
},
@@ -356,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Model wnioskowania wizualnego z 11B parametrów od Meta. Model zoptymalizowany do rozpoznawania wizualnego, wnioskowania obrazów, opisywania obrazów oraz odpowiadania na ogólne pytania dotyczące obrazów. Model potrafi rozumieć dane wizualne, takie jak wykresy i grafiki, a dzięki generowaniu tekstowych opisów szczegółów obrazów, łączy wizję z językiem."
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "Model instruktażowy Llama 3.2 1B to lekki model wielojęzyczny zaprezentowany przez Meta. Zaprojektowany, aby poprawić wydajność, oferując znaczące usprawnienia w opóźnieniu i kosztach w porównaniu do większych modeli. Przykładowe przypadki użycia tego modelu obejmują wyszukiwanie i podsumowywanie."
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Model instruktażowy Llama 3.2 3B to lekki model wielojęzyczny zaprezentowany przez Meta. Zaprojektowany, aby poprawić wydajność, oferując znaczące usprawnienia w opóźnieniu i kosztach w porównaniu do większych modeli. Przykładowe przypadki użycia tego modelu obejmują zapytania i przepisanie sugestii oraz pomoc w pisaniu."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Model wnioskowania wizualnego z 90B parametrów od Meta. Model zoptymalizowany do rozpoznawania wizualnego, wnioskowania obrazów, opisywania obrazów oraz odpowiadania na ogólne pytania dotyczące obrazów. Model potrafi rozumieć dane wizualne, takie jak wykresy i grafiki, a dzięki generowaniu tekstowych opisów szczegółów obrazów, łączy wizję z językiem."
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instruct to zaktualizowana wersja Llama 3.1 70B z grudnia. Model ten został ulepszony w oparciu o Llama 3.1 70B (wydany w lipcu 2024), wzmacniając możliwości wywoływania narzędzi, wsparcie dla tekstów w wielu językach, a także umiejętności matematyczne i programistyczne. Model osiągnął wiodący w branży poziom w zakresie wnioskowania, matematyki i przestrzegania instrukcji, oferując wydajność porównywalną z 3.1 405B, jednocześnie zapewniając znaczące korzyści w zakresie szybkości i kosztów."
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "Model z 24 miliardami parametrów, oferujący zaawansowane możliwości porównywalne z większymi modelami."
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Model Mixtral MoE 8x22B Instruct, z dużą liczbą parametrów i architekturą wielu ekspertów, kompleksowo wspierający efektywne przetwarzanie złożonych zadań."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Model Mixtral MoE 8x7B Instruct, architektura wielu ekspertów, oferująca efektywne śledzenie i wykonanie poleceń."
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "Model Mixtral MoE 8x7B Instruct (wersja HF), wydajność zgodna z oficjalną implementacją, idealny do różnych scenariuszy efektywnych zadań."
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "Model MythoMax L2 13B, łączący nowatorskie techniki łączenia, doskonały w narracji i odgrywaniu ról."
},
@@ -383,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "Model QwQ to eksperymentalny model badawczy opracowany przez zespół Qwen, skoncentrowany na zwiększeniu zdolności wnioskowania AI."
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "Wersja 72B modelu Qwen-VL to najnowszy owoc iteracji Alibaba, reprezentujący innowacje z ostatniego roku."
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 to seria modeli językowych opracowana przez zespół Qwen na chmurze Alibaba, która zawiera jedynie dekodery. Modele te występują w różnych rozmiarach, w tym 0.5B, 1.5B, 3B, 7B, 14B, 32B i 72B, i oferują dwie wersje: bazową (base) i instruktażową (instruct)."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct to najnowsza wersja serii dużych modeli językowych specyficznych dla kodu wydana przez Alibaba Cloud. Model ten, oparty na Qwen2.5, został przeszkolony na 55 bilionach tokenów, znacznie poprawiając zdolności generowania kodu, wnioskowania i naprawy. Wzmacnia on nie tylko zdolności kodowania, ale także utrzymuje przewagę w zakresie matematyki i ogólnych umiejętności. Model ten stanowi bardziej kompleksową podstawę dla rzeczywistych zastosowań, takich jak inteligentne agenty kodowe."
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "Model StarCoder 15.5B, wspierający zaawansowane zadania programistyczne, z wzmocnionymi możliwościami wielojęzycznymi, idealny do złożonego generowania i rozumienia kodu."
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "Model StarCoder 7B, przeszkolony w ponad 80 językach programowania, oferujący doskonałe możliwości uzupełniania kodu i rozumienia kontekstu."
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "Model Yi-Large, oferujący doskonałe możliwości przetwarzania wielojęzycznego, nadający się do różnych zadań generowania i rozumienia języka."
},
@@ -887,30 +878,18 @@
"lite": {
"description": "Spark Lite to lekki model językowy o dużej skali, charakteryzujący się niezwykle niskim opóźnieniem i wysoką wydajnością przetwarzania, całkowicie darmowy i otwarty, wspierający funkcje wyszukiwania w czasie rzeczywistym. Jego cechy szybkiej reakcji sprawiają, że doskonale sprawdza się w zastosowaniach inferencyjnych na urządzeniach o niskiej mocy obliczeniowej oraz w dostosowywaniu modeli, oferując użytkownikom znakomity stosunek kosztów do korzyści oraz inteligentne doświadczenie, szczególnie w kontekście pytań i odpowiedzi, generowania treści oraz wyszukiwania."
},
- "llama-3.1-70b-instruct": {
- "description": "Model Llama 3.1 70B Instruct, z 70B parametrami, oferujący doskonałe osiągi w dużych zadaniach generowania tekstu i poleceń."
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B oferuje potężne możliwości wnioskowania AI, odpowiednie do złożonych zastosowań, wspierające ogromne przetwarzanie obliczeniowe przy zachowaniu efektywności i dokładności."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B to model o wysokiej wydajności, oferujący szybkie możliwości generowania tekstu, idealny do zastosowań wymagających dużej efektywności i opłacalności."
},
- "llama-3.1-8b-instruct": {
- "description": "Model Llama 3.1 8B Instruct, z 8B parametrami, wspierający efektywne wykonanie zadań wskazujących, oferujący wysoką jakość generowania tekstu."
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "Model Llama 3.1 Sonar Huge Online, z 405B parametrami, obsługujący kontekst o długości około 127,000 tokenów, zaprojektowany do złożonych aplikacji czatu online."
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "Model Llama 3.1 Sonar Large Chat, z 70B parametrami, obsługujący kontekst o długości około 127,000 tokenów, idealny do złożonych zadań czatu offline."
- },
"llama-3.1-sonar-large-128k-online": {
"description": "Model Llama 3.1 Sonar Large Online, z 70B parametrami, obsługujący kontekst o długości około 127,000 tokenów, idealny do zadań czatu o dużej pojemności i różnorodności."
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "Model Llama 3.1 Sonar Small Chat, z 8B parametrami, zaprojektowany do czatów offline, obsługujący kontekst o długości około 127,000 tokenów."
- },
"llama-3.1-sonar-small-128k-online": {
"description": "Model Llama 3.1 Sonar Small Online, z 8B parametrami, obsługujący kontekst o długości około 127,000 tokenów, zaprojektowany do czatów online, efektywnie przetwarzający różne interakcje tekstowe."
},
@@ -1356,10 +1335,13 @@
"description": "Solar Pro to model LLM o wysokiej inteligencji wydany przez Upstage, koncentrujący się na zdolności do przestrzegania instrukcji na pojedynczym GPU, osiągając wynik IFEval powyżej 80. Obecnie wspiera język angielski, a wersja oficjalna planowana jest na listopad 2024, z rozszerzeniem wsparcia językowego i długości kontekstu."
},
"sonar": {
- "description": "Perplexity Sonar is the most efficient and cost-effective search solutions available. It gives you fast, straightforward answers."
+ "description": "Lekki produkt wyszukiwania oparty na kontekście, szybszy i tańszy niż Sonar Pro."
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro is the most efficient and cost-effective search solutions available. It tackles complex questions that need deeper research and provides more sources."
+ "description": "Zaawansowany produkt wyszukiwania wspierający kontekst wyszukiwania, oferujący zaawansowane zapytania i śledzenie."
+ },
+ "sonar-reasoning": {
+ "description": "Nowy produkt API wspierany przez model wnioskowania DeepSeek."
},
"step-1-128k": {
"description": "Równoważy wydajność i koszty, odpowiedni do ogólnych scenariuszy."
diff --git a/locales/pt-BR/models.json b/locales/pt-BR/models.json
index 48f28c3bdc340..2dc192bc78c53 100644
--- a/locales/pt-BR/models.json
+++ b/locales/pt-BR/models.json
@@ -323,21 +323,15 @@
"abab7-chat-preview": {
"description": "Em comparação com a série de modelos abab6.5, houve uma melhoria significativa nas habilidades em textos longos, matemática, escrita, entre outros."
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "Modelo de chamada de função de código aberto da Fireworks, oferecendo excelente capacidade de execução de instruções e características personalizáveis."
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1 é um modelo de linguagem grande de última geração, otimizado com aprendizado por reforço e dados de inicialização a frio, apresentando desempenho excepcional em raciocínio, matemática e programação."
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "O Firefunction-v2 da Fireworks é um modelo de chamada de função de alto desempenho, desenvolvido com base no Llama-3 e otimizado para cenários como chamadas de função, diálogos e seguimento de instruções."
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b é um modelo de linguagem visual que pode receber entradas de imagem e texto simultaneamente, treinado com dados de alta qualidade, adequado para tarefas multimodais."
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "Modelo de linguagem poderoso da Deepseek, baseado em Mixture-of-Experts (MoE), com um total de 671B de parâmetros, ativando 37B de parâmetros por token."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "O modelo Llama 3 70B Instruct é otimizado para diálogos multilíngues e compreensão de linguagem natural, superando a maioria dos modelos concorrentes."
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "O modelo Llama 3 70B Instruct (versão HF) mantém consistência com os resultados da implementação oficial, adequado para tarefas de seguimento de instruções de alta qualidade."
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "O modelo Llama 3 8B Instruct é otimizado para diálogos e tarefas multilíngues, apresentando desempenho excepcional e eficiência."
},
@@ -356,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Modelo de raciocínio visual de 11B parâmetros da Meta, otimizado para reconhecimento visual, raciocínio visual, descrição de imagens e resposta a perguntas gerais sobre imagens. Este modelo é capaz de entender dados visuais, como gráficos e diagramas, e preencher a lacuna entre visão e linguagem gerando descrições textuais dos detalhes das imagens."
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "O modelo de instrução Llama 3.2 1B é um modelo multilíngue leve lançado pela Meta. Este modelo visa aumentar a eficiência, oferecendo melhorias significativas em latência e custo em comparação com modelos maiores. Exemplos de uso incluem recuperação e resumo."
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "O modelo de instrução Llama 3.2 3B é um modelo multilíngue leve lançado pela Meta. Este modelo visa aumentar a eficiência, oferecendo melhorias significativas em latência e custo em comparação com modelos maiores. Exemplos de uso incluem consultas, reescrita de prompts e auxílio na redação."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Modelo de raciocínio visual de 90B parâmetros da Meta, otimizado para reconhecimento visual, raciocínio visual, descrição de imagens e resposta a perguntas gerais sobre imagens. Este modelo é capaz de entender dados visuais, como gráficos e diagramas, e preencher a lacuna entre visão e linguagem gerando descrições textuais dos detalhes das imagens."
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instruct é a versão atualizada de dezembro do Llama 3.1 70B. Este modelo foi aprimorado com base no Llama 3.1 70B (lançado em julho de 2024), melhorando a chamada de ferramentas, suporte a textos multilíngues, habilidades matemáticas e de programação. O modelo alcançou níveis de liderança da indústria em raciocínio, matemática e seguimento de instruções, e é capaz de oferecer desempenho semelhante ao 3.1 405B, ao mesmo tempo em que apresenta vantagens significativas em velocidade e custo."
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "Modelo com 24B de parâmetros, com capacidades de ponta comparáveis a modelos maiores."
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "O modelo Mixtral MoE 8x22B Instruct, com parâmetros em grande escala e arquitetura de múltiplos especialistas, suporta o processamento eficiente de tarefas complexas."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "O modelo Mixtral MoE 8x7B Instruct, com uma arquitetura de múltiplos especialistas, oferece seguimento e execução de instruções de forma eficiente."
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "O modelo Mixtral MoE 8x7B Instruct (versão HF) apresenta desempenho consistente com a implementação oficial, adequado para uma variedade de cenários de tarefas eficientes."
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "O modelo MythoMax L2 13B combina novas técnicas de fusão, sendo especializado em narrativas e interpretação de personagens."
},
@@ -383,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "O modelo QwQ é um modelo de pesquisa experimental desenvolvido pela equipe Qwen, focado em aprimorar a capacidade de raciocínio da IA."
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "A versão 72B do modelo Qwen-VL é o resultado da mais recente iteração da Alibaba, representando quase um ano de inovações."
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 é uma série de modelos de linguagem com apenas decodificadores, desenvolvida pela equipe Qwen da Alibaba Cloud. Estes modelos têm tamanhos variados, incluindo 0.5B, 1.5B, 3B, 7B, 14B, 32B e 72B, com variantes base (base) e de instrução (instruct)."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct é a versão mais recente da série de modelos de linguagem de grande escala específicos para código lançada pela Alibaba Cloud. Este modelo, baseado no Qwen2.5, foi treinado com 55 trilhões de tokens, melhorando significativamente a capacidade de geração, raciocínio e correção de código. Ele não apenas aprimora a capacidade de codificação, mas também mantém as vantagens em matemática e habilidades gerais. O modelo fornece uma base mais abrangente para aplicações práticas, como agentes de código."
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "O modelo StarCoder 15.5B suporta tarefas de programação avançadas, com capacidade multilíngue aprimorada, adequado para geração e compreensão de código complexos."
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "O modelo StarCoder 7B é treinado para mais de 80 linguagens de programação, apresentando excelente capacidade de preenchimento de código e compreensão de contexto."
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "O modelo Yi-Large oferece excelente capacidade de processamento multilíngue, adequado para diversas tarefas de geração e compreensão de linguagem."
},
@@ -887,30 +878,18 @@
"lite": {
"description": "Spark Lite é um modelo de linguagem grande leve, com latência extremamente baixa e alta eficiência de processamento, totalmente gratuito e aberto, suportando funcionalidades de busca online em tempo real. Sua característica de resposta rápida o torna excelente para aplicações de inferência em dispositivos de baixo poder computacional e ajuste fino de modelos, proporcionando aos usuários uma excelente relação custo-benefício e experiência inteligente, especialmente em cenários de perguntas e respostas, geração de conteúdo e busca."
},
- "llama-3.1-70b-instruct": {
- "description": "O modelo Llama 3.1 70B Instruct possui 70B de parâmetros, capaz de oferecer desempenho excepcional em tarefas de geração de texto e instrução em larga escala."
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B oferece capacidade de raciocínio AI mais poderosa, adequada para aplicações complexas, suportando um processamento computacional extenso e garantindo eficiência e precisão."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B é um modelo de alto desempenho, oferecendo capacidade de geração de texto rápida, ideal para cenários de aplicação que exigem eficiência em larga escala e custo-benefício."
},
- "llama-3.1-8b-instruct": {
- "description": "O modelo Llama 3.1 8B Instruct possui 8B de parâmetros, suportando a execução eficiente de tarefas de instrução, oferecendo excelente capacidade de geração de texto."
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "O modelo Llama 3.1 Sonar Huge Online possui 405B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, projetado para aplicações de chat online complexas."
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "O modelo Llama 3.1 Sonar Large Chat possui 70B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, adequado para tarefas de chat offline complexas."
- },
"llama-3.1-sonar-large-128k-online": {
"description": "O modelo Llama 3.1 Sonar Large Online possui 70B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, adequado para tarefas de chat de alta capacidade e diversidade."
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "O modelo Llama 3.1 Sonar Small Chat possui 8B de parâmetros, projetado para chats offline, suportando um comprimento de contexto de aproximadamente 127.000 tokens."
- },
"llama-3.1-sonar-small-128k-online": {
"description": "O modelo Llama 3.1 Sonar Small Online possui 8B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, projetado para chats online, capaz de processar eficientemente diversas interações textuais."
},
@@ -1356,10 +1335,13 @@
"description": "Solar Pro é um LLM de alta inteligência lançado pela Upstage, focado na capacidade de seguir instruções em um único GPU, com pontuação IFEval acima de 80. Atualmente suporta inglês, com uma versão oficial planejada para lançamento em novembro de 2024, que expandirá o suporte a idiomas e comprimento de contexto."
},
"sonar": {
- "description": "Perplexity Sonar is the most efficient and cost-effective search solutions available. It gives you fast, straightforward answers."
+ "description": "Produto de busca leve baseado em contexto de busca, mais rápido e mais barato que o Sonar Pro."
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro is the most efficient and cost-effective search solutions available. It tackles complex questions that need deeper research and provides more sources."
+ "description": "Produto de busca avançada que suporta contexto de busca, consultas avançadas e acompanhamento."
+ },
+ "sonar-reasoning": {
+ "description": "Novo produto API suportado pelo modelo de raciocínio da DeepSeek."
},
"step-1-128k": {
"description": "Equilibra desempenho e custo, adequado para cenários gerais."
diff --git a/locales/ru-RU/models.json b/locales/ru-RU/models.json
index 145fa0dab35f2..0d332d02862e6 100644
--- a/locales/ru-RU/models.json
+++ b/locales/ru-RU/models.json
@@ -323,21 +323,15 @@
"abab7-chat-preview": {
"description": "По сравнению с серией моделей abab6.5, значительно улучшены способности в области длинных текстов, математики и написания."
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "Открытая модель вызова функций от Fireworks, обеспечивающая выдающиеся возможности выполнения команд и открытые настраиваемые функции."
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1 — это передовая большая языковая модель, оптимизированная с помощью обучения с подкреплением и холодных стартовых данных, обладающая выдающимися показателями вывода, математики и программирования."
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "Firefunction-v2 от компании Fireworks — это высокопроизводительная модель вызова функций, разработанная на основе Llama-3 и оптимизированная для вызова функций, диалогов и выполнения команд."
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b — это визуальная языковая модель, способная одновременно обрабатывать изображения и текстовые вводы, обученная на высококачественных данных, подходящая для мультимодальных задач."
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "Мощная языковая модель Mixture-of-Experts (MoE) от Deepseek с общим количеством параметров 671B, активирующая 37B параметров на каждый токен."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Модель Llama 3 70B для команд, специально оптимизированная для многоязычных диалогов и понимания естественного языка, превосходит большинство конкурентных моделей."
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "Модель Llama 3 70B для команд (HF версия), результаты которой совпадают с официальной реализацией, подходит для высококачественных задач выполнения команд."
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Модель Llama 3 8B для команд, оптимизированная для диалогов и многоязычных задач, демонстрирует выдающиеся и эффективные результаты."
},
@@ -356,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Модель Meta с 11B параметрами, оптимизированная для вывода изображений. Эта модель предназначена для визуального распознавания, вывода изображений, описания изображений и ответа на общие вопросы о изображениях. Эта модель способна понимать визуальные данные, такие как графики и диаграммы, и преодолевать разрыв между визуальным и языковым пониманием, генерируя текстовые описания деталей изображений."
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "Модель Llama 3.2 1B для инструкций - это компактная многоязычная модель, запущенная Meta. Эта модель предназначена для повышения эффективности и обеспечивает значительное улучшение в задержке и стоимости по сравнению с более крупными моделями. Примеры использования модели включают извлечение информации и резюме."
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Модель Llama 3.2 3B для инструкций - это компактная многоязычная модель, запущенная Meta. Эта модель предназначена для повышения эффективности и обеспечивает значительное улучшение в задержке и стоимости по сравнению с более крупными моделями. Примеры использования модели включают запросы, переоформление подсказок и помощь в написании."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Модель Meta с 90B параметрами, оптимизированная для вывода изображений. Эта модель предназначена для визуального распознавания, вывода изображений, описания изображений и ответа на общие вопросы о изображениях. Эта модель способна понимать визуальные данные, такие как графики и диаграммы, и преодолевать разрыв между визуальным и языковым пониманием, генерируя текстовые описания деталей изображений."
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instruct — это обновленная версия Llama 3.1 70B от декабря. Эта модель улучшена на основе Llama 3.1 70B (выпущенной в июле 2024 года), с усиленной поддержкой вызовов инструментов, многоязычного текста, математических и программных возможностей. Модель достигла ведущих в отрасли показателей в области вывода, математики и соблюдения инструкций, обеспечивая производительность, сопоставимую с 3.1 405B, при этом обладая значительными преимуществами по скорости и стоимости."
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "Модель с 24B параметрами, обладающая передовыми возможностями, сопоставимыми с более крупными моделями."
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Mixtral MoE 8x22B для команд, с большим количеством параметров и архитектурой с несколькими экспертами, всесторонне поддерживает эффективную обработку сложных задач."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Mixtral MoE 8x7B для команд, архитектура с несколькими экспертами обеспечивает эффективное выполнение и следование командам."
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "Mixtral MoE 8x7B для команд (HF версия), производительность которой совпадает с официальной реализацией, подходит для множества эффективных задач."
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "Модель MythoMax L2 13B, использующая новые технологии объединения, хорошо подходит для повествования и ролевых игр."
},
@@ -383,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "Модель QwQ — это экспериментальная исследовательская модель, разработанная командой Qwen, сосредоточенная на улучшении возможностей вывода ИИ."
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "72B версия модели Qwen-VL — это результат последней итерации Alibaba, представляющий собой инновации почти за год."
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 - это серия языковых моделей, содержащая только декодеры, разработанная командой Qwen от Alibaba Cloud. Эти модели предлагаются в различных размерах: 0.5B, 1.5B, 3B, 7B, 14B, 32B и 72B, с вариантами базовой и инструкционной версии."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct — это последняя версия серии языковых моделей, специфичных для кода, выпущенная Alibaba Cloud. Эта модель значительно улучшила способности генерации кода, вывода и исправления на основе Qwen2.5, обучаясь на 5.5 триллионах токенов. Она не только усилила кодирование, но и сохранила преимущества в математике и общих способностях. Модель предоставляет более полную основу для практических приложений, таких как интеллектуальные агенты кода."
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "Модель StarCoder 15.5B, поддерживающая сложные задачи программирования, с улучшенными многоязычными возможностями, подходит для генерации и понимания сложного кода."
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "Модель StarCoder 7B, обученная на более чем 80 языках программирования, обладает выдающимися способностями к заполнению кода и пониманию контекста."
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "Модель Yi-Large, обладающая выдающимися возможностями обработки нескольких языков, подходит для различных задач генерации и понимания языка."
},
@@ -887,30 +878,18 @@
"lite": {
"description": "Spark Lite — это легковесная большая языковая модель с крайне низкой задержкой и высокой эффективностью обработки, полностью бесплатная и открытая, поддерживающая функции онлайн-поиска в реальном времени. Ее быстрая реакция делает ее отличным выбором для применения в устройствах с низкой вычислительной мощностью и для тонкой настройки моделей, обеспечивая пользователям отличное соотношение цены и качества, особенно в сценариях вопросов и ответов, генерации контента и поиска."
},
- "llama-3.1-70b-instruct": {
- "description": "Модель Llama 3.1 70B для команд, обладающая 70B параметрами, обеспечивает выдающуюся производительность в задачах генерации текста и выполнения команд."
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B предлагает более мощные возможности ИИ вывода, подходит для сложных приложений, поддерживает огромное количество вычислительных процессов и гарантирует эффективность и точность."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B — это высокоэффективная модель, обеспечивающая быструю генерацию текста, идеально подходящая для приложений, требующих масштабной эффективности и экономичности."
},
- "llama-3.1-8b-instruct": {
- "description": "Модель Llama 3.1 8B для команд, обладающая 8B параметрами, обеспечивает эффективное выполнение задач с указаниями и предлагает высококачественные возможности генерации текста."
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "Модель Llama 3.1 Sonar Huge Online, обладающая 405B параметрами, поддерживает контекст длиной около 127,000 токенов, предназначена для сложных онлайн-чат-приложений."
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "Модель Llama 3.1 Sonar Large Chat, обладающая 70B параметрами, поддерживает контекст длиной около 127,000 токенов, подходит для сложных оффлайн-чатов."
- },
"llama-3.1-sonar-large-128k-online": {
"description": "Модель Llama 3.1 Sonar Large Online, обладающая 70B параметрами, поддерживает контекст длиной около 127,000 токенов, подходит для задач с высокой нагрузкой и разнообразными чатами."
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "Модель Llama 3.1 Sonar Small Chat, обладающая 8B параметрами, специально разработана для оффлайн-чатов и поддерживает контекст длиной около 127,000 токенов."
- },
"llama-3.1-sonar-small-128k-online": {
"description": "Модель Llama 3.1 Sonar Small Online, обладающая 8B параметрами, поддерживает контекст длиной около 127,000 токенов, специально разработана для онлайн-чатов и эффективно обрабатывает различные текстовые взаимодействия."
},
@@ -1356,10 +1335,13 @@
"description": "Solar Pro — это высокоинтеллектуальная LLM, выпущенная Upstage, сосредоточенная на способности следовать инструкциям на одном GPU, с оценкой IFEval выше 80. В настоящее время поддерживает английский язык, официальная версия запланирована на ноябрь 2024 года, с расширением языковой поддержки и длины контекста."
},
"sonar": {
- "description": "Perplexity Sonar is the most efficient and cost-effective search solutions available. It gives you fast, straightforward answers."
+ "description": "Легковесный продукт поиска на основе контекста, быстрее и дешевле, чем Sonar Pro."
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro is the most efficient and cost-effective search solutions available. It tackles complex questions that need deeper research and provides more sources."
+ "description": "Расширенный продукт поиска, поддерживающий контекст поиска, сложные запросы и последующие действия."
+ },
+ "sonar-reasoning": {
+ "description": "Новый API продукт, поддерживаемый моделью вывода DeepSeek."
},
"step-1-128k": {
"description": "Балансирует производительность и стоимость, подходит для общих сценариев."
diff --git a/locales/tr-TR/models.json b/locales/tr-TR/models.json
index 8fb26fbe7070e..1b40a3161afd0 100644
--- a/locales/tr-TR/models.json
+++ b/locales/tr-TR/models.json
@@ -323,21 +323,15 @@
"abab7-chat-preview": {
"description": "abab6.5 serisi modellere kıyasla uzun metin, matematik, yazım gibi yeteneklerde büyük bir gelişim göstermektedir."
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "Fireworks açık kaynak fonksiyon çağrı modeli, mükemmel talimat yürütme yetenekleri ve özelleştirilebilir özellikler sunar."
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1, güçlendirilmiş öğrenme ve soğuk başlangıç verileri ile optimize edilmiş, mükemmel akıl yürütme, matematik ve programlama performansına sahip en son teknoloji büyük bir dil modelidir."
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "Fireworks şirketinin en son ürünü Firefunction-v2, Llama-3 tabanlı, fonksiyon çağrıları, diyalog ve talimat takibi gibi senaryolar için özel olarak optimize edilmiş yüksek performanslı bir modeldir."
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b, hem görüntü hem de metin girdilerini alabilen, yüksek kaliteli verilerle eğitilmiş bir görsel dil modelidir ve çok modlu görevler için uygundur."
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "Deepseek tarafından sunulan güçlü Mixture-of-Experts (MoE) dil modeli, toplamda 671B parametreye sahiptir ve her bir etiket için 37B parametre etkinleştirilmektedir."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Llama 3 70B talimat modeli, çok dilli diyalog ve doğal dil anlama için optimize edilmiştir, çoğu rakip modelden daha iyi performans gösterir."
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "Llama 3 70B talimat modeli (HF versiyonu), resmi uygulama sonuçlarıyla uyumlu olup yüksek kaliteli talimat takibi görevleri için uygundur."
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Llama 3 8B talimat modeli, diyalog ve çok dilli görevler için optimize edilmiştir, mükemmel ve etkili performans sunar."
},
@@ -356,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Meta'nın 11B parametreli komut ayarlı görüntü akıl yürütme modelidir. Bu model, görsel tanıma, görüntü akıl yürütme, görüntü betimleme ve görüntü hakkında genel sorulara yanıt verme üzerine optimize edilmiştir. Bu model, grafikler ve resimler gibi görsel verileri anlayabilir ve görüntü detaylarını metin olarak betimleyerek görsel ile dil arasındaki boşluğu kapatır."
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "Llama 3.2 1B komut modeli, Meta tarafından sunulan hafif çok dilli bir modeldir. Bu model, verimliliği artırmak amacıyla daha büyük modellere göre gecikme ve maliyet açısından önemli iyileştirmeler sunar. Bu modelin örnek kullanım alanları arasında bilgi alma ve özetleme bulunmaktadır."
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Llama 3.2 3B komut modeli, Meta tarafından sunulan hafif çok dilli bir modeldir. Bu model, verimliliği artırmak amacıyla daha büyük modellere göre gecikme ve maliyet açısından önemli iyileştirmeler sunar. Bu modelin örnek kullanım alanları arasında sorgulama, öneri yeniden yazma ve yazma desteği bulunmaktadır."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Meta'nın 90B parametreli komut ayarlı görüntü akıl yürütme modelidir. Bu model, görsel tanıma, görüntü akıl yürütme, görüntü betimleme ve görüntü hakkında genel sorulara yanıt verme üzerine optimize edilmiştir. Bu model, grafikler ve resimler gibi görsel verileri anlayabilir ve görüntü detaylarını metin olarak betimleyerek görsel ile dil arasındaki boşluğu kapatır."
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instruct, Llama 3.1 70B'nin Aralık güncellemesi olan bir modeldir. Bu model, Llama 3.1 70B (2024 Temmuz'da piyasaya sürüldü) temel alınarak geliştirilmiş olup, araç çağrıları, çok dilli metin desteği, matematik ve programlama yeteneklerini artırmıştır. Model, akıl yürütme, matematik ve talimat takibi alanlarında sektördeki en yüksek standartlara ulaşmış olup, 3.1 405B ile benzer performans sunarken hız ve maliyet açısından önemli avantajlar sağlamaktadır."
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "24B parametreli model, daha büyük modellerle karşılaştırılabilir en son teknoloji yeteneklerine sahiptir."
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Mixtral MoE 8x22B talimat modeli, büyük ölçekli parametreler ve çok uzmanlı mimarisi ile karmaşık görevlerin etkili işlenmesini destekler."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Mixtral MoE 8x7B talimat modeli, çok uzmanlı mimarisi ile etkili talimat takibi ve yürütme sunar."
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "Mixtral MoE 8x7B talimat modeli (HF versiyonu), resmi uygulama ile uyumlu olup çeşitli yüksek verimli görev senaryoları için uygundur."
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "MythoMax L2 13B modeli, yenilikçi birleşim teknolojileri ile hikaye anlatımı ve rol yapma konularında uzmandır."
},
@@ -383,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "QwQ modeli, Qwen ekibi tarafından geliştirilen deneysel bir araştırma modelidir ve AI akıl yürütme yeteneklerini artırmaya odaklanmaktadır."
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "Qwen-VL modelinin 72B versiyonu, Alibaba'nın en son iterasyonunun bir ürünüdür ve son bir yılın yeniliklerini temsil etmektedir."
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5, Alibaba Cloud Qwen ekibi tarafından geliştirilen yalnızca kodlayıcı içeren bir dizi dil modelidir. Bu modeller, 0.5B, 1.5B, 3B, 7B, 14B, 32B ve 72B gibi farklı boyutları sunar ve temel (base) ve komut (instruct) versiyonlarına sahiptir."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct, Alibaba Cloud tarafından yayınlanan kod odaklı büyük dil modeli serisinin en son versiyonudur. Bu model, Qwen2.5 temelinde, 5.5 trilyon token ile eğitilerek kod üretimi, akıl yürütme ve düzeltme yeteneklerini önemli ölçüde artırmıştır. Hem kodlama yeteneklerini geliştirmiş hem de matematik ve genel yetenek avantajlarını korumuştur. Model, kod akıllı ajanları gibi pratik uygulamalar için daha kapsamlı bir temel sunmaktadır."
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "StarCoder 15.5B modeli, ileri düzey programlama görevlerini destekler, çok dilli yetenekleri artırır ve karmaşık kod üretimi ve anlama için uygundur."
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "StarCoder 7B modeli, 80'den fazla programlama dili için eğitilmiş olup, mükemmel programlama tamamlama yetenekleri ve bağlam anlama sunar."
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "Yi-Large modeli, mükemmel çok dilli işleme yetenekleri sunar ve her türlü dil üretimi ve anlama görevleri için uygundur."
},
@@ -887,30 +878,18 @@
"lite": {
"description": "Spark Lite, son derece düşük gecikme süresi ve yüksek verimlilikle çalışan hafif bir büyük dil modelidir. Tamamen ücretsiz ve açık olup, gerçek zamanlı çevrimiçi arama işlevini desteklemektedir. Hızlı yanıt verme özelliği, düşük hesaplama gücüne sahip cihazlarda çıkarım uygulamaları ve model ince ayarlarında mükemmel performans sergileyerek, kullanıcılara maliyet etkinliği ve akıllı deneyim sunmakta, özellikle bilgi sorgulama, içerik oluşturma ve arama senaryolarında başarılı olmaktadır."
},
- "llama-3.1-70b-instruct": {
- "description": "Llama 3.1 70B Instruct modeli, 70B parametreye sahiptir ve büyük metin üretimi ve talimat görevlerinde mükemmel performans sunar."
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B, daha güçlü AI akıl yürütme yeteneği sunar, karmaşık uygulamalar için uygundur ve yüksek verimlilik ve doğruluk sağlamak için çok sayıda hesaplama işlemini destekler."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B, hızlı metin üretim yeteneği sunan yüksek performanslı bir modeldir ve büyük ölçekli verimlilik ve maliyet etkinliği gerektiren uygulama senaryoları için son derece uygundur."
},
- "llama-3.1-8b-instruct": {
- "description": "Llama 3.1 8B Instruct modeli, 8B parametreye sahiptir ve görsel talimat görevlerinin etkili bir şekilde yürütülmesini sağlar, kaliteli metin üretim yetenekleri sunar."
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "Llama 3.1 Sonar Huge Online modeli, 405B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, karmaşık çevrimiçi sohbet uygulamaları için tasarlanmıştır."
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "Llama 3.1 Sonar Large Chat modeli, 70B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, karmaşık çevrimdışı sohbet görevleri için uygundur."
- },
"llama-3.1-sonar-large-128k-online": {
"description": "Llama 3.1 Sonar Large Online modeli, 70B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, yüksek kapasiteli ve çeşitli sohbet görevleri için uygundur."
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "Llama 3.1 Sonar Small Chat modeli, 8B parametreye sahiptir ve çevrimdışı sohbet için tasarlanmıştır, yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler."
- },
"llama-3.1-sonar-small-128k-online": {
"description": "Llama 3.1 Sonar Small Online modeli, 8B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, çevrimiçi sohbet için tasarlanmıştır ve çeşitli metin etkileşimlerini etkili bir şekilde işler."
},
@@ -1356,10 +1335,13 @@
"description": "Solar Pro, Upstage tarafından sunulan yüksek akıllı LLM'dir, tek GPU talimat takibi yeteneğine odaklanır, IFEval puanı 80'in üzerindedir. Şu anda İngilizceyi desteklemekte olup, resmi versiyonu 2024 Kasım'da piyasaya sürülmesi planlanmaktadır ve dil desteği ile bağlam uzunluğunu genişletecektir."
},
"sonar": {
- "description": "Perplexity Sonar is the most efficient and cost-effective search solutions available. It gives you fast, straightforward answers."
+ "description": "Arama bağlamına dayalı hafif bir arama ürünüdür, Sonar Pro'dan daha hızlı ve daha ucuzdur."
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro is the most efficient and cost-effective search solutions available. It tackles complex questions that need deeper research and provides more sources."
+ "description": "Gelişmiş sorgular ve takip desteği sunan, arama bağlamını destekleyen bir üst düzey arama ürünüdür."
+ },
+ "sonar-reasoning": {
+ "description": "DeepSeek akıl yürütme modeli tarafından desteklenen yeni API ürünü."
},
"step-1-128k": {
"description": "Performans ve maliyet arasında denge sağlar, genel senaryolar için uygundur."
diff --git a/locales/vi-VN/models.json b/locales/vi-VN/models.json
index 0602879825569..d4ddda6ce951f 100644
--- a/locales/vi-VN/models.json
+++ b/locales/vi-VN/models.json
@@ -323,21 +323,15 @@
"abab7-chat-preview": {
"description": "So với các mô hình trong series abab6.5, khả năng xử lý văn bản dài, toán học, viết lách, v.v. đã được cải thiện đáng kể."
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "Mô hình gọi hàm mã nguồn mở của Fireworks, cung cấp khả năng thực hiện chỉ dẫn xuất sắc và tính năng tùy chỉnh mở."
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1 là một mô hình ngôn ngữ lớn tiên tiến, được tối ưu hóa thông qua học tăng cường và dữ liệu khởi động lạnh, có hiệu suất suy luận, toán học và lập trình xuất sắc."
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "Firefunction-v2 mới nhất của công ty Fireworks là một mô hình gọi hàm hiệu suất cao, được phát triển dựa trên Llama-3 và được tối ưu hóa nhiều, đặc biệt phù hợp cho các tình huống gọi hàm, đối thoại và theo dõi chỉ dẫn."
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b là một mô hình ngôn ngữ hình ảnh, có thể nhận cả hình ảnh và văn bản đầu vào, được huấn luyện bằng dữ liệu chất lượng cao, phù hợp cho các nhiệm vụ đa mô hình."
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "Mô hình ngôn ngữ Mixture-of-Experts (MoE) mạnh mẽ do Deepseek cung cấp, với tổng số tham số là 671B, mỗi ký hiệu kích hoạt 37B tham số."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Mô hình chỉ dẫn Llama 3 70B, được tối ưu hóa cho đối thoại đa ngôn ngữ và hiểu ngôn ngữ tự nhiên, hiệu suất vượt trội hơn nhiều mô hình cạnh tranh."
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "Mô hình chỉ dẫn Llama 3 70B (phiên bản HF), giữ nguyên kết quả với thực hiện chính thức, phù hợp cho các nhiệm vụ theo dõi chỉ dẫn chất lượng cao."
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Mô hình chỉ dẫn Llama 3 8B, được tối ưu hóa cho đối thoại và các nhiệm vụ đa ngôn ngữ, thể hiện hiệu suất xuất sắc và hiệu quả."
},
@@ -356,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Mô hình suy luận hình ảnh chỉ dẫn với 11B tham số của Meta. Mô hình này được tối ưu hóa cho nhận diện hình ảnh, suy luận hình ảnh, mô tả hình ảnh và trả lời các câu hỏi chung liên quan đến hình ảnh. Mô hình có khả năng hiểu dữ liệu hình ảnh như biểu đồ và đồ thị, và thu hẹp khoảng cách giữa hình ảnh và ngôn ngữ thông qua việc tạo mô tả văn bản về chi tiết hình ảnh."
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "Mô hình chỉ dẫn Llama 3.2 1B là một mô hình đa ngôn ngữ nhẹ mà Meta phát hành. Mô hình này được thiết kế để tăng cường hiệu quả, mang lại cải tiến đáng kể về độ trễ và chi phí so với các mô hình lớn hơn. Các trường hợp sử dụng ví dụ của mô hình này bao gồm truy xuất và tóm tắt."
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Mô hình chỉ dẫn Llama 3.2 3B là một mô hình đa ngôn ngữ nhẹ mà Meta phát hành. Mô hình này được thiết kế để tăng cường hiệu quả, mang lại cải tiến đáng kể về độ trễ và chi phí so với các mô hình lớn hơn. Các trường hợp sử dụng ví dụ của mô hình này bao gồm truy vấn, viết lại thông báo và hỗ trợ viết."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Mô hình suy luận hình ảnh chỉ dẫn với 90B tham số của Meta. Mô hình này được tối ưu hóa cho nhận diện hình ảnh, suy luận hình ảnh, mô tả hình ảnh và trả lời các câu hỏi chung liên quan đến hình ảnh. Mô hình có khả năng hiểu dữ liệu hình ảnh như biểu đồ và đồ thị, và thu hẹp khoảng cách giữa hình ảnh và ngôn ngữ thông qua việc tạo mô tả văn bản về chi tiết hình ảnh."
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instruct là phiên bản cập nhật tháng 12 của Llama 3.1 70B. Mô hình này được cải tiến dựa trên Llama 3.1 70B (ra mắt vào tháng 7 năm 2024), nâng cao khả năng gọi công cụ, hỗ trợ văn bản đa ngôn ngữ, toán học và lập trình. Mô hình này đạt được trình độ hàng đầu trong ngành về suy luận, toán học và tuân thủ hướng dẫn, đồng thời có thể cung cấp hiệu suất tương tự như 3.1 405B, với lợi thế đáng kể về tốc độ và chi phí."
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "Mô hình 24B tham số, có khả năng tiên tiến tương đương với các mô hình lớn hơn."
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Mô hình chỉ dẫn Mixtral MoE 8x22B, với số lượng tham số lớn và kiến trúc nhiều chuyên gia, hỗ trợ toàn diện cho việc xử lý hiệu quả các nhiệm vụ phức tạp."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Mô hình chỉ dẫn Mixtral MoE 8x7B, kiến trúc nhiều chuyên gia cung cấp khả năng theo dõi và thực hiện chỉ dẫn hiệu quả."
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "Mô hình chỉ dẫn Mixtral MoE 8x7B (phiên bản HF), hiệu suất nhất quán với thực hiện chính thức, phù hợp cho nhiều tình huống nhiệm vụ hiệu quả."
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "Mô hình MythoMax L2 13B, kết hợp công nghệ hợp nhất mới, xuất sắc trong việc kể chuyện và đóng vai."
},
@@ -383,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "Mô hình QwQ là một mô hình nghiên cứu thử nghiệm được phát triển bởi đội ngũ Qwen, tập trung vào việc nâng cao khả năng suy luận của AI."
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "Phiên bản 72B của mô hình Qwen-VL là thành quả mới nhất của Alibaba, đại diện cho gần một năm đổi mới."
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 là một loạt mô hình ngôn ngữ chỉ chứa bộ giải mã do đội ngũ Qwen của Alibaba Cloud phát triển. Những mô hình này cung cấp các kích thước khác nhau, bao gồm 0.5B, 1.5B, 3B, 7B, 14B, 32B và 72B, và có hai biến thể: phiên bản cơ sở (base) và phiên bản chỉ dẫn (instruct)."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct là phiên bản mới nhất trong loạt mô hình ngôn ngữ lớn chuyên biệt cho mã do Alibaba Cloud phát hành. Mô hình này được cải thiện đáng kể khả năng tạo mã, suy luận và sửa chữa thông qua việc đào tạo trên 5.5 triệu tỷ tokens, không chỉ nâng cao khả năng lập trình mà còn duy trì lợi thế về khả năng toán học và tổng quát. Mô hình cung cấp nền tảng toàn diện hơn cho các ứng dụng thực tế như tác nhân mã."
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "Mô hình StarCoder 15.5B, hỗ trợ các nhiệm vụ lập trình nâng cao, khả năng đa ngôn ngữ được cải thiện, phù hợp cho việc tạo và hiểu mã phức tạp."
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "Mô hình StarCoder 7B, được huấn luyện cho hơn 80 ngôn ngữ lập trình, có khả năng điền mã và hiểu ngữ cảnh xuất sắc."
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "Mô hình Yi-Large, có khả năng xử lý đa ngôn ngữ xuất sắc, có thể được sử dụng cho nhiều nhiệm vụ sinh và hiểu ngôn ngữ."
},
@@ -887,30 +878,18 @@
"lite": {
"description": "Spark Lite là một mô hình ngôn ngữ lớn nhẹ, có độ trễ cực thấp và khả năng xử lý hiệu quả, hoàn toàn miễn phí và mở, hỗ trợ chức năng tìm kiếm trực tuyến theo thời gian thực. Đặc điểm phản hồi nhanh của nó giúp nó nổi bật trong các ứng dụng suy diễn trên thiết bị có công suất thấp và tinh chỉnh mô hình, mang lại hiệu quả chi phí và trải nghiệm thông minh xuất sắc cho người dùng, đặc biệt trong các tình huống hỏi đáp kiến thức, tạo nội dung và tìm kiếm."
},
- "llama-3.1-70b-instruct": {
- "description": "Mô hình Llama 3.1 70B Instruct, có 70B tham số, có thể cung cấp hiệu suất xuất sắc trong các nhiệm vụ sinh văn bản và chỉ dẫn lớn."
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B cung cấp khả năng suy luận AI mạnh mẽ hơn, phù hợp cho các ứng dụng phức tạp, hỗ trợ xử lý tính toán cực lớn và đảm bảo hiệu quả và độ chính xác cao."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B là một mô hình hiệu suất cao, cung cấp khả năng sinh văn bản nhanh chóng, rất phù hợp cho các tình huống ứng dụng cần hiệu quả quy mô lớn và tiết kiệm chi phí."
},
- "llama-3.1-8b-instruct": {
- "description": "Mô hình Llama 3.1 8B Instruct, có 8B tham số, hỗ trợ thực hiện nhiệm vụ chỉ dẫn hình ảnh hiệu quả, cung cấp khả năng sinh văn bản chất lượng."
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "Mô hình Llama 3.1 Sonar Huge Online, có 405B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, được thiết kế cho các ứng dụng trò chuyện trực tuyến phức tạp."
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "Mô hình Llama 3.1 Sonar Large Chat, có 70B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, phù hợp cho các nhiệm vụ trò chuyện ngoại tuyến phức tạp."
- },
"llama-3.1-sonar-large-128k-online": {
"description": "Mô hình Llama 3.1 Sonar Large Online, có 70B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, phù hợp cho các nhiệm vụ trò chuyện có dung lượng lớn và đa dạng."
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "Mô hình Llama 3.1 Sonar Small Chat, có 8B tham số, được thiết kế cho trò chuyện ngoại tuyến, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã."
- },
"llama-3.1-sonar-small-128k-online": {
"description": "Mô hình Llama 3.1 Sonar Small Online, có 8B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, được thiết kế cho trò chuyện trực tuyến, có khả năng xử lý hiệu quả các tương tác văn bản khác nhau."
},
@@ -1356,10 +1335,13 @@
"description": "Solar Pro là một LLM thông minh cao do Upstage phát hành, tập trung vào khả năng tuân theo hướng dẫn trên một GPU, đạt điểm IFEval trên 80. Hiện tại hỗ trợ tiếng Anh, phiên bản chính thức dự kiến ra mắt vào tháng 11 năm 2024, sẽ mở rộng hỗ trợ ngôn ngữ và độ dài ngữ cảnh."
},
"sonar": {
- "description": "Perplexity Sonar is the most efficient and cost-effective search solutions available. It gives you fast, straightforward answers."
+ "description": "Sản phẩm tìm kiếm nhẹ dựa trên ngữ cảnh tìm kiếm, nhanh hơn và rẻ hơn so với Sonar Pro."
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro is the most efficient and cost-effective search solutions available. It tackles complex questions that need deeper research and provides more sources."
+ "description": "Sản phẩm tìm kiếm nâng cao hỗ trợ ngữ cảnh tìm kiếm, cho phép truy vấn và theo dõi nâng cao."
+ },
+ "sonar-reasoning": {
+ "description": "Sản phẩm API mới được hỗ trợ bởi mô hình suy luận của DeepSeek."
},
"step-1-128k": {
"description": "Cân bằng hiệu suất và chi phí, phù hợp cho các tình huống chung."
diff --git a/locales/zh-CN/models.json b/locales/zh-CN/models.json
index 8ca98730d8c78..a11aae776f8bd 100644
--- a/locales/zh-CN/models.json
+++ b/locales/zh-CN/models.json
@@ -323,80 +323,71 @@
"abab7-chat-preview": {
"description": "相对于abab6.5系列模型在长文、数学、写作等能力有大幅度提升。"
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "Fireworks 开源函数调用模型,提供卓越的指令执行能力和开放可定制的特性。"
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1 是一款最先进的大型语言模型,经过强化学习和冷启动数据的优化,具有出色的推理、数学和编程性能。"
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "Fireworks 公司最新推出的 Firefunction-v2 是一款性能卓越的函数调用模型,基于 Llama-3 开发,并通过大量优化,特别适用于函数调用、对话及指令跟随等场景。"
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b 是一款视觉语言模型,可以同时接收图像和文本输入,经过高质量数据训练,适合多模态任务。"
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "Deepseek 提供的强大 Mixture-of-Experts (MoE) 语言模型,总参数量为 671B,每个标记激活 37B 参数。"
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
- "description": "Llama 3 70B 指令模型,专为多语言对话和自然语言理解优化,性能优于多数竞争模型。"
- },
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "Llama 3 70B 指令模型(HF 版本),与官方实现结果保持一致,适合高质量的指令跟随任务。"
+ "description": "Meta 开发并发布了 Meta Llama 3 系列大语言模型(LLM),该系列包含 8B 和 70B 参数规模的预训练和指令微调生成文本模型。Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。"
},
"accounts/fireworks/models/llama-v3-8b-instruct": {
- "description": "Llama 3 8B 指令模型,优化用于对话及多语言任务,表现卓越且高效。"
+ "description": "Meta 开发并发布了 Meta Llama 3 系列大语言模型(LLM),这是一个包含 8B 和 70B 参数规模的预训练和指令微调生成文本模型的集合。Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。"
},
"accounts/fireworks/models/llama-v3-8b-instruct-hf": {
- "description": "Llama 3 8B 指令模型(HF 版本),与官方实现结果一致,具备高度一致性和跨平台兼容性。"
+ "description": "Meta Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。Llama 3 8B Instruct(HF 版本)是 Llama 3 8B Instruct 的原始 FP16 版本,其结果应与官方 Hugging Face 实现一致。"
},
"accounts/fireworks/models/llama-v3p1-405b-instruct": {
- "description": "Llama 3.1 405B 指令模型,具备超大规模参数,适合复杂任务和高负载场景下的指令跟随。"
+ "description": "Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话场景优化,在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。405B 是 Llama 3.1 家族中能力最强的模型。该模型采用 FP8 进行推理,与参考实现高度匹配。"
},
"accounts/fireworks/models/llama-v3p1-70b-instruct": {
- "description": "Llama 3.1 70B 指令模型,提供卓越的自然语言理解和生成能力,是对话及分析任务的理想选择。"
+ "description": "Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 三种参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话应用优化,并在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。"
},
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
- "description": "Llama 3.1 8B 指令模型,专为多语言对话优化,能够在常见行业基准上超越多数开源及闭源模型。"
+ "description": "Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 三种参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话应用优化,并在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。"
},
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
- "description": "Meta的11B参数指令调整图像推理模型。该模型针对视觉识别、图像推理、图像描述和回答关于图像的一般性问题进行了优化。该模型能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节来弥合视觉与语言之间的差距。"
- },
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "Llama 3.2 1B 指令模型是Meta推出的一款轻量级多语言模型。该模型旨在提高效率,与更大型的模型相比,在延迟和成本方面提供了显著的改进。该模型的示例用例包括检索和摘要。"
+ "description": "Meta 推出的指令微调图像推理模型,拥有 110 亿参数。该模型针对视觉识别、图像推理、图片字幕生成以及图片相关的常规问答进行了优化。它能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节,弥合视觉与语言之间的鸿沟。"
},
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
- "description": "Llama 3.2 3B 指令模型是Meta推出的一款轻量级多语言模型。该模型旨在提高效率,与更大型的模型相比,在延迟和成本方面提供了显著的改进。该模型的示例用例包括查询和提示重写以及写作辅助。"
+ "description": "Llama 3.2 3B Instruct 是 Meta 推出的轻量级多语言模型。该模型专为高效运行而设计,相较于更大型的模型,具有显著的延迟和成本优势。其典型应用场景包括查询和提示重写,以及写作辅助。"
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
- "description": "Meta的90B参数指令调整图像推理模型。该模型针对视觉识别、图像推理、图像描述和回答关于图像的一般性问题进行了优化。该模型能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节来弥合视觉与语言之间的差距。"
+ "description": "Meta 推出的指令微调图像推理模型,拥有 900 亿参数。该模型针对视觉识别、图像推理、图片字幕生成以及图片相关的常规问答进行了优化。它能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节,弥合视觉与语言之间的鸿沟。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。"
+ },
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instruct 是 Llama 3.1 70B 的 12 月更新版本。该模型在 Llama 3.1 70B(于 2024 年 7 月发布)的基础上进行了改进,增强了工具调用、多语言文本支持、数学和编程能力。该模型在推理、数学和指令遵循方面达到了行业领先水平,并且能够提供与 3.1 405B 相似的性能,同时在速度和成本上具有显著优势。"
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "24B 参数模型,具备与更大型模型相当的最先进能力。"
},
"accounts/fireworks/models/mixtral-8x22b-instruct": {
- "description": "Mixtral MoE 8x22B 指令模型,大规模参数和多专家架构,全方位支持复杂任务的高效处理。"
+ "description": "Mixtral MoE 8x22B Instruct v0.1 是 Mixtral MoE 8x22B v0.1 的指令微调版本,已启用聊天完成功能 API。"
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
- "description": "Mixtral MoE 8x7B 指令模型,多专家架构提供高效的指令跟随及执行。"
- },
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "Mixtral MoE 8x7B 指令模型(HF 版本),性能与官方实现一致,适合多种高效任务场景。"
+ "description": "Mixtral MoE 8x7B Instruct 是 Mixtral MoE 8x7B 的指令微调版本,已启用聊天完成功能 API。"
},
"accounts/fireworks/models/mythomax-l2-13b": {
- "description": "MythoMax L2 13B 模型,结合新颖的合并技术,擅长叙事和角色扮演。"
+ "description": "MythoMix 的改进版,可能是其更为完善的变体,是 MythoLogic-L2 和 Huginn 的合并,采用了高度实验性的张量类型合并技术。由于其独特的性质,该模型在讲故事和角色扮演方面表现出色。"
},
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
- "description": "Phi-3-Vision-128K-Instruct 是一个轻量级的、最先进的开放多模态模型,它基于包括合成数据和经过筛选的公开网站在内的数据集构建,专注于非常高质量、推理密集型的数据,这些数据既包括文本也包括视觉。该模型属于 Phi-3 模型系列,其多模态版本支持 128K 的上下文长度(以标记为单位)。该模型经过严格的增强过程,结合了监督微调和直接偏好优化,以确保精确遵循指令和强大的安全措施。"
+ "description": "Phi-3-Vision-128K-Instruct 是一个轻量级的、最先进的开放多模态模型,基于包括合成数据和筛选后的公开网站数据集构建,重点关注文本和视觉方面的高质量、推理密集型数据。该模型属于 Phi-3 模型家族,其多模态版本支持 128K 上下文长度(以标记为单位)。该模型经过严格的增强过程,包括监督微调和直接偏好优化,以确保精确的指令遵循和强大的安全措施。"
},
"accounts/fireworks/models/qwen-qwq-32b-preview": {
- "description": "QwQ模型是由 Qwen 团队开发的实验性研究模型,专注于增强 AI 推理能力。"
+ "description": "Qwen QwQ 模型专注于推动 AI 推理,并展示了开放模型在推理能力上与闭源前沿模型匹敌的力量。QwQ-32B-Preview 是一个实验性发布版本,在 GPQA、AIME、MATH-500 和 LiveCodeBench 基准测试中,在分析和推理能力上可与 o1 相媲美,并超越 GPT-4o 和 Claude 3.5 Sonnet。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。"
+ },
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "Qwen-VL 模型的 72B 版本是阿里巴巴最新迭代的成果,代表了近一年的创新。"
},
"accounts/fireworks/models/qwen2p5-72b-instruct": {
- "description": "Qwen2.5 是由阿里云 Qwen 团队开发的一系列仅包含解码器的语言模型。这些模型提供不同的大小,包括 0.5B、1.5B、3B、7B、14B、32B 和 72B,并且有基础版(base)和指令版(instruct)两种变体。"
+ "description": "Qwen2.5 是由 Qwen 团队和阿里云开发的一系列仅解码语言模型,提供 0.5B、1.5B、3B、7B、14B、32B 和 72B 不同参数规模,并包含基础版和指令微调版。"
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
- "description": "Qwen2.5 Coder 32B Instruct 是阿里云发布的代码特定大语言模型系列的最新版本。该模型在 Qwen2.5 的基础上,通过 5.5 万亿个 tokens 的训练,显著提升了代码生成、推理和修复能力。它不仅增强了编码能力,还保持了数学和通用能力的优势。模型为代码智能体等实际应用提供了更全面的基础"
- },
- "accounts/fireworks/models/starcoder-16b": {
- "description": "StarCoder 15.5B 模型,支持高级编程任务,多语言能力增强,适合复杂代码生成和理解。"
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "StarCoder 7B 模型,针对80多种编程语言训练,拥有出色的编程填充能力和语境理解。"
+ "description": "Qwen2.5-Coder 是最新一代专为代码设计的 Qwen 大型语言模型(前称为 CodeQwen)。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。"
},
"accounts/yi-01-ai/models/yi-large": {
- "description": "Yi-Large 模型,具备卓越的多语言处理能力,可用于各类语言生成和理解任务。"
+ "description": "Yi-Large 是顶尖的大型语言模型之一,在 LMSYS 基准测试排行榜上,其表现仅次于 GPT-4、Gemini 1.5 Pro 和 Claude 3 Opus。它在多语言能力方面表现卓越,特别是在西班牙语、中文、日语、德语和法语方面。Yi-Large 还具有用户友好性,采用与 OpenAI 相同的 API 定义,便于集成。"
},
"ai21-jamba-1.5-large": {
"description": "一个398B参数(94B活跃)的多语言模型,提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。"
@@ -887,30 +878,18 @@
"lite": {
"description": "Spark Lite 是一款轻量级大语言模型,具备极低的延迟与高效的处理能力,完全免费开放,支持实时在线搜索功能。其快速响应的特性使其在低算力设备上的推理应用和模型微调中表现出色,为用户带来出色的成本效益和智能体验,尤其在知识问答、内容生成及搜索场景下表现不俗。"
},
- "llama-3.1-70b-instruct": {
- "description": "Llama 3.1 70B Instruct 模型,具备70B参数,能在大型文本生成和指示任务中提供卓越性能。"
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B 提供更强大的AI推理能力,适合复杂应用,支持超多的计算处理并保证高效和准确率。"
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B 是一款高效能模型,提供了快速的文本生成能力,非常适合需要大规模效率和成本效益的应用场景。"
},
- "llama-3.1-8b-instruct": {
- "description": "Llama 3.1 8B Instruct 模型,具备8B参数,支持画面指示任务的高效执行,提供优质的文本生成能力。"
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "Llama 3.1 Sonar Huge Online 模型,具备405B参数,支持约127,000个标记的上下文长度,设计用于复杂的在线聊天应用。"
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "Llama 3.1 Sonar Large Chat 模型,具备70B参数,支持约127,000个标记的上下文长度,适合于复杂的离线聊天任务。"
- },
"llama-3.1-sonar-large-128k-online": {
"description": "Llama 3.1 Sonar Large Online 模型,具备70B参数,支持约127,000个标记的上下文长度,适用于高容量和多样化聊天任务。"
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "Llama 3.1 Sonar Small Chat 模型,具备8B参数,专为离线聊天设计,支持约127,000个标记的上下文长度。"
- },
"llama-3.1-sonar-small-128k-online": {
"description": "Llama 3.1 Sonar Small Online 模型,具备8B参数,支持约127,000个标记的上下文长度,专为在线聊天设计,能高效处理各种文本交互。"
},
@@ -1362,13 +1341,13 @@
"description": "Solar Pro 是 Upstage 推出的一款高智能LLM,专注于单GPU的指令跟随能力,IFEval得分80以上。目前支持英语,正式版本计划于2024年11月推出,将扩展语言支持和上下文长度。"
},
"sonar": {
- "description": "Perplexity Sonar 是最有效且最具成本效益的搜索解决方案,可为您提供快速而直接的答案。"
+ "description": "基于搜索上下文的轻量级搜索产品,比 Sonar Pro 更快、更便宜。"
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro 是最有效且最具成本效益的搜索解决方案,可解决需要更深入研究的复杂问题并提供更多来源。"
+ "description": "支持搜索上下文的高级搜索产品,支持高级查询和跟进。"
},
"sonar-reasoning": {
- "description": "Perplexity Sonar Reasoning 是由 DeepSeek 推理模型提供支持的新 API 产品。"
+ "description": "由 DeepSeek 推理模型提供支持的新 API 产品。"
},
"step-1-128k": {
"description": "平衡性能与成本,适合一般场景。"
diff --git a/locales/zh-TW/models.json b/locales/zh-TW/models.json
index 1c03d72c98420..7106f47d2cdc8 100644
--- a/locales/zh-TW/models.json
+++ b/locales/zh-TW/models.json
@@ -323,21 +323,15 @@
"abab7-chat-preview": {
"description": "相對於abab6.5系列模型在長文、數學、寫作等能力有大幅度提升。"
},
- "accounts/fireworks/models/firefunction-v1": {
- "description": "Fireworks 開源函數調用模型,提供卓越的指令執行能力和開放可定制的特性。"
+ "accounts/fireworks/models/deepseek-r1": {
+ "description": "DeepSeek-R1 是一款最先進的大型語言模型,經過強化學習和冷啟動數據的優化,具有出色的推理、數學和編程性能。"
},
- "accounts/fireworks/models/firefunction-v2": {
- "description": "Fireworks 公司最新推出的 Firefunction-v2 是一款性能卓越的函數調用模型,基於 Llama-3 開發,並通過大量優化,特別適用於函數調用、對話及指令跟隨等場景。"
- },
- "accounts/fireworks/models/firellava-13b": {
- "description": "fireworks-ai/FireLLaVA-13b 是一款視覺語言模型,可以同時接收圖像和文本輸入,經過高質量數據訓練,適合多模態任務。"
+ "accounts/fireworks/models/deepseek-v3": {
+ "description": "Deepseek 提供的強大 Mixture-of-Experts (MoE) 語言模型,總參數量為 671B,每個標記激活 37B 參數。"
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Llama 3 70B 指令模型,專為多語言對話和自然語言理解優化,性能優於多數競爭模型。"
},
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
- "description": "Llama 3 70B 指令模型(HF 版本),與官方實現結果保持一致,適合高質量的指令跟隨任務。"
- },
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Llama 3 8B 指令模型,優化用於對話及多語言任務,表現卓越且高效。"
},
@@ -356,24 +350,24 @@
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Meta的11B參數指令調整圖像推理模型。該模型針對視覺識別、圖像推理、圖像描述和回答關於圖像的一般性問題進行了優化。該模型能夠理解視覺數據,如圖表和圖形,並通過生成文本描述圖像細節來弥合視覺與語言之間的差距。"
},
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
- "description": "Llama 3.2 1B 指令模型是Meta推出的一款輕量級多語言模型。該模型旨在提高效率,與更大型的模型相比,在延遲和成本方面提供了顯著的改進。該模型的示例用例包括檢索和摘要。"
- },
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Llama 3.2 3B 指令模型是Meta推出的一款輕量級多語言模型。該模型旨在提高效率,與更大型的模型相比,在延遲和成本方面提供了顯著的改進。該模型的示例用例包括查詢和提示重寫以及寫作輔助。"
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Meta的90B參數指令調整圖像推理模型。該模型針對視覺識別、圖像推理、圖像描述和回答關於圖像的一般性問題進行了優化。該模型能夠理解視覺數據,如圖表和圖形,並通過生成文本描述圖像細節來弥合視覺與語言之間的差距。"
},
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
+ "description": "Llama 3.3 70B Instruct 是 Llama 3.1 70B 的 12 月更新版本。該模型在 Llama 3.1 70B(於 2024 年 7 月發布)的基礎上進行了改進,增強了工具調用、多語言文本支持、數學和編程能力。該模型在推理、數學和指令遵循方面達到了行業領先水平,並且能夠提供與 3.1 405B 相似的性能,同時在速度和成本上具有顯著優勢。"
+ },
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
+ "description": "24B 參數模型,具備與更大型模型相當的最先進能力。"
+ },
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Mixtral MoE 8x22B 指令模型,大規模參數和多專家架構,全方位支持複雜任務的高效處理。"
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Mixtral MoE 8x7B 指令模型,多專家架構提供高效的指令跟隨及執行。"
},
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
- "description": "Mixtral MoE 8x7B 指令模型(HF 版本),性能與官方實現一致,適合多種高效任務場景。"
- },
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "MythoMax L2 13B 模型,結合新穎的合併技術,擅長敘事和角色扮演。"
},
@@ -383,18 +377,15 @@
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "QwQ模型是由 Qwen 團隊開發的實驗性研究模型,專注於增強 AI 推理能力。"
},
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
+ "description": "Qwen-VL 模型的 72B 版本是阿里巴巴最新迭代的成果,代表了近一年的創新。"
+ },
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 是由阿里雲 Qwen 團隊開發的一系列僅包含解碼器的語言模型。這些模型提供不同的大小,包括 0.5B、1.5B、3B、7B、14B、32B 和 72B,並且有基礎版(base)和指令版(instruct)兩種變體。"
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct 是阿里雲發布的代碼特定大語言模型系列的最新版本。該模型在 Qwen2.5 的基礎上,通過 5.5 萬億個 tokens 的訓練,顯著提升了代碼生成、推理和修復能力。它不僅增強了編碼能力,還保持了數學和通用能力的優勢。模型為代碼智能體等實際應用提供了更全面的基礎"
},
- "accounts/fireworks/models/starcoder-16b": {
- "description": "StarCoder 15.5B 模型,支持高級編程任務,多語言能力增強,適合複雜代碼生成和理解。"
- },
- "accounts/fireworks/models/starcoder-7b": {
- "description": "StarCoder 7B 模型,針對 80 多種編程語言訓練,擁有出色的編程填充能力和語境理解。"
- },
"accounts/yi-01-ai/models/yi-large": {
"description": "Yi-Large 模型,具備卓越的多語言處理能力,可用於各類語言生成和理解任務。"
},
@@ -887,30 +878,18 @@
"lite": {
"description": "Spark Lite 是一款輕量級大語言模型,具備極低的延遲與高效的處理能力,完全免費開放,支持即時在線搜索功能。其快速響應的特性使其在低算力設備上的推理應用和模型微調中表現出色,為用戶帶來出色的成本效益和智能體驗,尤其在知識問答、內容生成及搜索場景下表現不俗。"
},
- "llama-3.1-70b-instruct": {
- "description": "Llama 3.1 70B Instruct 模型,具備 70B 參數,能在大型文本生成和指示任務中提供卓越性能。"
- },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B 提供更強大的 AI 推理能力,適合複雜應用,支持超多的計算處理並保證高效和準確率。"
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B 是一款高效能模型,提供了快速的文本生成能力,非常適合需要大規模效率和成本效益的應用場景。"
},
- "llama-3.1-8b-instruct": {
- "description": "Llama 3.1 8B Instruct 模型,具備 8B 參數,支持畫面指示任務的高效執行,提供優質的文本生成能力。"
- },
"llama-3.1-sonar-huge-128k-online": {
"description": "Llama 3.1 Sonar Huge Online 模型,具備 405B 參數,支持約 127,000 個標記的上下文長度,設計用於複雜的在線聊天應用。"
},
- "llama-3.1-sonar-large-128k-chat": {
- "description": "Llama 3.1 Sonar Large Chat 模型,具備 70B 參數,支持約 127,000 個標記的上下文長度,適合於複雜的離線聊天任務。"
- },
"llama-3.1-sonar-large-128k-online": {
"description": "Llama 3.1 Sonar Large Online 模型,具備 70B 參數,支持約 127,000 個標記的上下文長度,適用於高容量和多樣化聊天任務。"
},
- "llama-3.1-sonar-small-128k-chat": {
- "description": "Llama 3.1 Sonar Small Chat 模型,具備 8B 參數,專為離線聊天設計,支持約 127,000 個標記的上下文長度。"
- },
"llama-3.1-sonar-small-128k-online": {
"description": "Llama 3.1 Sonar Small Online 模型,具備 8B 參數,支持約 127,000 個標記的上下文長度,專為在線聊天設計,能高效處理各種文本交互。"
},
@@ -1362,13 +1341,13 @@
"description": "Solar Pro 是 Upstage 推出的一款高智能LLM,專注於單GPU的指令跟隨能力,IFEval得分80以上。目前支持英語,正式版本計劃於2024年11月推出,將擴展語言支持和上下文長度。"
},
"sonar": {
- "description": "Perplexity Sonar 是最有效且最具成本效益的搜尋解決方案,可為您提供快速且直接的答案。"
+ "description": "基於搜索上下文的輕量級搜索產品,比 Sonar Pro 更快、更便宜。"
},
"sonar-pro": {
- "description": "Perplexity Sonar Pro 是最有效且最具成本效益的搜尋解決方案,可解決需要更深入研究的複雜問題並提供更多來源。"
+ "description": "支持搜索上下文的高級搜索產品,支持高級查詢和跟進。"
},
"sonar-reasoning": {
- "description": "Perplexity Sonar Reasoning 是由 DeepSeek 推理模型提供支持的新 API 產品。"
+ "description": "由 DeepSeek 推理模型提供支持的新 API 產品。"
},
"step-1-128k": {
"description": "平衡性能與成本,適合一般場景。"
diff --git a/src/config/aiModels/github.ts b/src/config/aiModels/github.ts
index 2e3db2a7209c9..5725b8bd4100a 100644
--- a/src/config/aiModels/github.ts
+++ b/src/config/aiModels/github.ts
@@ -58,7 +58,7 @@ const githubChatModels: AIChatModelCard[] = [
functionCall: true,
vision: true,
},
- contextWindowTokens: 128_000,
+ contextWindowTokens: 134_144,
description: '一种经济高效的AI解决方案,适用于多种文本和图像任务。',
displayName: 'OpenAI GPT-4o mini',
enabled: true,
@@ -71,11 +71,18 @@ const githubChatModels: AIChatModelCard[] = [
functionCall: true,
vision: true,
},
- contextWindowTokens: 128_000,
+ contextWindowTokens: 134_144,
description: 'OpenAI GPT-4系列中最先进的多模态模型,可以处理文本和图像输入。',
displayName: 'OpenAI GPT-4o',
enabled: true,
id: 'gpt-4o',
+ maxOutput: 16_384,
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 128_000,
+ displayName: 'DeepSeek R1',
+ id: 'DeepSeek-R1',
maxOutput: 4096,
type: 'chat',
},
@@ -145,6 +152,13 @@ const githubChatModels: AIChatModelCard[] = [
maxOutput: 4096,
type: 'chat',
},
+ {
+ contextWindowTokens: 262_144,
+ displayName: 'Codestral',
+ id: 'Codestral-2501',
+ maxOutput: 4096,
+ type: 'chat',
+ },
{
abilities: {
vision: true,
@@ -210,6 +224,20 @@ const githubChatModels: AIChatModelCard[] = [
maxOutput: 4096,
type: 'chat',
},
+ {
+ contextWindowTokens: 16_384,
+ displayName: 'Phi 4',
+ id: 'Phi-4',
+ maxOutput: 16_384,
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 131_072,
+ displayName: 'Phi 3.5 MoE',
+ id: 'Phi-3.5-MoE-instruct',
+ maxOutput: 4096,
+ type: 'chat',
+ },
{
contextWindowTokens: 131_072,
description: 'Phi-3-mini模型的更新版。',
diff --git a/src/config/aiModels/qwen.ts b/src/config/aiModels/qwen.ts
index 5cf0b453dfd35..35160a7af04e3 100644
--- a/src/config/aiModels/qwen.ts
+++ b/src/config/aiModels/qwen.ts
@@ -10,6 +10,7 @@ const qwenChatModels: AIChatModelCard[] = [
displayName: 'Qwen Turbo',
enabled: true,
id: 'qwen-turbo-latest',
+ maxOutput: 8192,
pricing: {
currency: 'CNY',
input: 0.3,
@@ -26,6 +27,7 @@ const qwenChatModels: AIChatModelCard[] = [
displayName: 'Qwen Plus',
enabled: true,
id: 'qwen-plus-latest',
+ maxOutput: 8192,
pricing: {
currency: 'CNY',
input: 0.8,
@@ -43,6 +45,7 @@ const qwenChatModels: AIChatModelCard[] = [
displayName: 'Qwen Max',
enabled: true,
id: 'qwen-max-latest',
+ maxOutput: 8192,
pricing: {
currency: 'CNY',
input: 11.2,
@@ -73,6 +76,7 @@ const qwenChatModels: AIChatModelCard[] = [
'通义千问超大规模语言模型,支持长文本上下文,以及基于长文档、多文档等多个场景的对话功能。',
displayName: 'Qwen Long',
id: 'qwen-long',
+ maxOutput: 6000,
pricing: {
currency: 'CNY',
input: 0.5,
@@ -90,6 +94,7 @@ const qwenChatModels: AIChatModelCard[] = [
displayName: 'Qwen VL Plus',
enabled: true,
id: 'qwen-vl-plus-latest',
+ maxOutput: 2048,
pricing: {
currency: 'CNY',
input: 1.5,
@@ -107,6 +112,7 @@ const qwenChatModels: AIChatModelCard[] = [
displayName: 'Qwen VL Max',
enabled: true,
id: 'qwen-vl-max-latest',
+ maxOutput: 2048,
pricing: {
currency: 'CNY',
input: 3,
@@ -123,6 +129,7 @@ const qwenChatModels: AIChatModelCard[] = [
'通义千问OCR是文字提取专有模型,专注于文档、表格、试题、手写体文字等类型图像的文字提取能力。它能够识别多种文字,目前支持的语言有:汉语、英语、法语、日语、韩语、德语、俄语、意大利语、越南语、阿拉伯语。',
displayName: 'Qwen VL OCR',
id: 'qwen-vl-ocr-latest',
+ maxOutput: 4096,
pricing: {
currency: 'CNY',
input: 5,
@@ -135,6 +142,7 @@ const qwenChatModels: AIChatModelCard[] = [
description: '通义千问数学模型是专门用于数学解题的语言模型。',
displayName: 'Qwen Math Turbo',
id: 'qwen-math-turbo-latest',
+ maxOutput: 3072,
pricing: {
currency: 'CNY',
input: 2,
@@ -147,6 +155,7 @@ const qwenChatModels: AIChatModelCard[] = [
description: '通义千问数学模型是专门用于数学解题的语言模型。',
displayName: 'Qwen Math Plus',
id: 'qwen-math-plus-latest',
+ maxOutput: 3072,
pricing: {
currency: 'CNY',
input: 4,
@@ -159,6 +168,7 @@ const qwenChatModels: AIChatModelCard[] = [
description: '通义千问代码模型。',
displayName: 'Qwen Coder Turbo',
id: 'qwen-coder-turbo-latest',
+ maxOutput: 8192,
pricing: {
currency: 'CNY',
input: 2,
@@ -171,6 +181,7 @@ const qwenChatModels: AIChatModelCard[] = [
description: '通义千问代码模型。',
displayName: 'Qwen Coder Plus',
id: 'qwen-coder-plus-latest',
+ maxOutput: 8192,
pricing: {
currency: 'CNY',
input: 3.5,
@@ -179,10 +190,14 @@ const qwenChatModels: AIChatModelCard[] = [
type: 'chat',
},
{
+ abilities: {
+ functionCall: true,
+ },
contextWindowTokens: 32_768,
description: 'QwQ模型是由 Qwen 团队开发的实验性研究模型,专注于增强 AI 推理能力。',
displayName: 'QwQ 32B Preview',
id: 'qwq-32b-preview',
+ maxOutput: 16_384,
pricing: {
currency: 'CNY',
input: 3.5,
@@ -199,6 +214,7 @@ const qwenChatModels: AIChatModelCard[] = [
description: 'QVQ模型是由 Qwen 团队开发的实验性研究模型,专注于提升视觉推理能力,尤其在数学推理领域。',
displayName: 'QVQ 72B Preview',
id: 'qvq-72b-preview',
+ maxOutput: 16_384,
pricing: {
currency: 'CNY',
input: 12,
@@ -215,6 +231,7 @@ const qwenChatModels: AIChatModelCard[] = [
description: '通义千问2.5对外开源的7B规模的模型。',
displayName: 'Qwen2.5 7B',
id: 'qwen2.5-7b-instruct',
+ maxOutput: 8192,
pricing: {
currency: 'CNY',
input: 0.5,
@@ -230,6 +247,7 @@ const qwenChatModels: AIChatModelCard[] = [
description: '通义千问2.5对外开源的14B规模的模型。',
displayName: 'Qwen2.5 14B',
id: 'qwen2.5-14b-instruct',
+ maxOutput: 8192,
pricing: {
currency: 'CNY',
input: 1,
@@ -245,6 +263,7 @@ const qwenChatModels: AIChatModelCard[] = [
description: '通义千问2.5对外开源的32B规模的模型。',
displayName: 'Qwen2.5 32B',
id: 'qwen2.5-32b-instruct',
+ maxOutput: 8192,
pricing: {
currency: 'CNY',
input: 3.5,
@@ -260,6 +279,7 @@ const qwenChatModels: AIChatModelCard[] = [
description: '通义千问2.5对外开源的72B规模的模型。',
displayName: 'Qwen2.5 72B',
id: 'qwen2.5-72b-instruct',
+ maxOutput: 8192,
pricing: {
currency: 'CNY',
input: 4,
@@ -275,6 +295,7 @@ const qwenChatModels: AIChatModelCard[] = [
description: '通义千问2.5对外开源的72B规模的模型。',
displayName: 'Qwen2.5 14B 1M',
id: 'qwen2.5-14b-instruct-1m',
+ maxOutput: 8192,
pricing: {
currency: 'CNY',
input: 1,
@@ -288,6 +309,7 @@ const qwenChatModels: AIChatModelCard[] = [
description: 'Qwen-Math 模型具有强大的数学解题能力。',
displayName: 'Qwen2.5 Math 7B',
id: 'qwen2.5-math-7b-instruct',
+ maxOutput: 3072,
pricing: {
currency: 'CNY',
input: 1,
@@ -300,6 +322,7 @@ const qwenChatModels: AIChatModelCard[] = [
description: 'Qwen-Math 模型具有强大的数学解题能力。',
displayName: 'Qwen2.5 Math 72B',
id: 'qwen2.5-math-72b-instruct',
+ maxOutput: 3072,
pricing: {
currency: 'CNY',
input: 4,
@@ -312,6 +335,7 @@ const qwenChatModels: AIChatModelCard[] = [
description: '通义千问代码模型开源版。',
displayName: 'Qwen2.5 Coder 7B',
id: 'qwen2.5-coder-7b-instruct',
+ maxOutput: 8192,
pricing: {
currency: 'CNY',
input: 1,
@@ -324,6 +348,7 @@ const qwenChatModels: AIChatModelCard[] = [
description: '通义千问代码模型开源版。',
displayName: 'Qwen2.5 Coder 32B',
id: 'qwen2.5-coder-32b-instruct',
+ maxOutput: 8192,
pricing: {
currency: 'CNY',
input: 3.5,
@@ -365,11 +390,12 @@ const qwenChatModels: AIChatModelCard[] = [
abilities: {
vision: true,
},
- contextWindowTokens: 128_000,
+ contextWindowTokens: 131_072,
description:
'指令跟随、数学、解题、代码整体提升,万物识别能力提升,支持多样格式直接精准定位视觉元素,支持对长视频文件(最长10分钟)进行理解和秒级别的事件时刻定位,能理解时间先后和快慢,基于解析和定位能力支持操控OS或Mobile的Agent,关键信息抽取能力和Json格式输出能力强,此版本为72B版本,本系列能力最强的版本。',
displayName: 'Qwen2.5 VL 72B',
id: 'qwen2.5-vl-72b-instruct',
+ maxOutput: 2048,
pricing: {
currency: 'CNY',
input: 16,
@@ -382,11 +408,12 @@ const qwenChatModels: AIChatModelCard[] = [
abilities: {
vision: true,
},
- contextWindowTokens: 128_000,
+ contextWindowTokens: 131_072,
description:
'指令跟随、数学、解题、代码整体提升,万物识别能力提升,支持多样格式直接精准定位视觉元素,支持对长视频文件(最长10分钟)进行理解和秒级别的事件时刻定位,能理解时间先后和快慢,基于解析和定位能力支持操控OS或Mobile的Agent,关键信息抽取能力和Json格式输出能力强,此版本为72B版本,本系列能力最强的版本。',
displayName: 'Qwen2.5 VL 7B',
id: 'qwen2.5-vl-7b-instruct',
+ maxOutput: 2048,
pricing: {
currency: 'CNY',
input: 2,
@@ -396,11 +423,15 @@ const qwenChatModels: AIChatModelCard[] = [
type: 'chat',
},
{
+ abilities: {
+ reasoning: true,
+ },
contextWindowTokens: 65_536,
description:
'DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力,尤其在数学、代码、自然语言推理等任务上。',
displayName: 'DeepSeek R1',
id: 'deepseek-r1',
+ maxOutput: 8192,
pricing: {
currency: 'CNY',
input: 0,
@@ -410,11 +441,15 @@ const qwenChatModels: AIChatModelCard[] = [
type: 'chat',
},
{
+ abilities: {
+ functionCall: true,
+ },
contextWindowTokens: 65_536,
description:
'DeepSeek-V3 为自研 MoE 模型,671B 参数,激活 37B,在 14.8T token 上进行了预训练,在长文本、代码、数学、百科、中文能力上表现优秀。',
displayName: 'DeepSeek V3',
id: 'deepseek-v3',
+ maxOutput: 8192,
pricing: {
currency: 'CNY',
input: 0,
diff --git a/src/config/modelProviders/github.ts b/src/config/modelProviders/github.ts
index 459f7ad604c2a..8b329d40aca4c 100644
--- a/src/config/modelProviders/github.ts
+++ b/src/config/modelProviders/github.ts
@@ -37,7 +37,7 @@ const Github: ModelProviderCard = {
vision: true,
},
{
- contextWindowTokens: 128_000,
+ contextWindowTokens: 134_144,
description: '一种经济高效的AI解决方案,适用于多种文本和图像任务。',
displayName: 'OpenAI GPT-4o mini',
enabled: true,
@@ -47,15 +47,21 @@ const Github: ModelProviderCard = {
vision: true,
},
{
- contextWindowTokens: 128_000,
+ contextWindowTokens: 134_144,
description: 'OpenAI GPT-4系列中最先进的多模态模型,可以处理文本和图像输入。',
displayName: 'OpenAI GPT-4o',
enabled: true,
functionCall: true,
id: 'gpt-4o',
- maxOutput: 4096,
+ maxOutput: 16_384,
vision: true,
},
+ {
+ contextWindowTokens: 128_000,
+ displayName: 'DeepSeek R1',
+ id: 'DeepSeek-R1',
+ maxOutput: 4096,
+ },
{
contextWindowTokens: 262_144,
description:
@@ -112,6 +118,12 @@ const Github: ModelProviderCard = {
id: 'mistral-large',
maxOutput: 4096,
},
+ {
+ contextWindowTokens: 262_144,
+ displayName: 'Codestral',
+ id: 'Codestral-2501',
+ maxOutput: 4096,
+ },
{
contextWindowTokens: 131_072,
description: '在高分辨率图像上表现出色的图像推理能力,适用于视觉理解应用。',
@@ -166,6 +178,18 @@ const Github: ModelProviderCard = {
id: 'meta-llama-3-70b-instruct',
maxOutput: 4096,
},
+ {
+ contextWindowTokens: 16_384,
+ displayName: 'Phi 4',
+ id: 'Phi-4',
+ maxOutput: 16_384,
+ },
+ {
+ contextWindowTokens: 131_072,
+ displayName: 'Phi 3.5 MoE',
+ id: 'Phi-3.5-MoE-instruct',
+ maxOutput: 4096,
+ },
{
contextWindowTokens: 131_072,
description: 'Phi-3-mini模型的更新版。',
diff --git a/src/config/modelProviders/qwen.ts b/src/config/modelProviders/qwen.ts
index 69944c47e823b..f9e35768709eb 100644
--- a/src/config/modelProviders/qwen.ts
+++ b/src/config/modelProviders/qwen.ts
@@ -328,7 +328,6 @@ const Qwen: ModelProviderCard = {
description:
'DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力,尤其在数学、代码、自然语言推理等任务上。',
displayName: 'DeepSeek R1',
- enabled: true,
id: 'deepseek-r1',
pricing: {
currency: 'CNY',
@@ -342,7 +341,6 @@ const Qwen: ModelProviderCard = {
description:
'DeepSeek-V3 为自研 MoE 模型,671B 参数,激活 37B,在 14.8T token 上进行了预训练,在长文本、代码、数学、百科、中文能力上表现优秀。',
displayName: 'DeepSeek V3',
- enabled: true,
id: 'deepseek-v3',
pricing: {
currency: 'CNY',
diff --git a/src/database/repositories/dataImporter/index.ts b/src/database/repositories/dataImporter/index.ts
index 67d4c610476e5..d41a0e0045315 100644
--- a/src/database/repositories/dataImporter/index.ts
+++ b/src/database/repositories/dataImporter/index.ts
@@ -14,6 +14,7 @@ import {
import { LobeChatDatabase } from '@/database/type';
import { ImportResult } from '@/services/config';
import { ImporterEntryData } from '@/types/importer';
+import { sanitizeUTF8 } from '@/utils/sanitizeUTF8';
export class DataImporterRepos {
private userId: string;
@@ -204,9 +205,10 @@ export class DataImporterRepos {
// 2. insert messages
if (shouldInsertMessages.length > 0) {
const inertValues = shouldInsertMessages.map(
- ({ id, extra, createdAt, updatedAt, sessionId, topicId, ...res }) => ({
+ ({ id, extra, createdAt, updatedAt, sessionId, topicId, content, ...res }) => ({
...res,
clientId: id,
+ content: sanitizeUTF8(content),
createdAt: new Date(createdAt),
model: extra?.fromModel,
parentId: null,
diff --git a/src/libs/langchain/loaders/pdf/index.ts b/src/libs/langchain/loaders/pdf/index.ts
index 2ba2641602a32..f35054243ee00 100644
--- a/src/libs/langchain/loaders/pdf/index.ts
+++ b/src/libs/langchain/loaders/pdf/index.ts
@@ -1,7 +1,7 @@
import { PDFLoader } from '@langchain/community/document_loaders/fs/pdf';
export const PdfLoader = async (fileBlob: Blob) => {
- const loader = new PDFLoader(fileBlob);
+ const loader = new PDFLoader(fileBlob, { splitPages: true });
return await loader.load();
};
diff --git a/src/server/routers/async/file.ts b/src/server/routers/async/file.ts
index e67621b4d26a1..dc6e639722d0c 100644
--- a/src/server/routers/async/file.ts
+++ b/src/server/routers/async/file.ts
@@ -24,6 +24,7 @@ import {
IAsyncTaskError,
} from '@/types/asyncTask';
import { safeParseJSON } from '@/utils/safeParseJSON';
+import { sanitizeUTF8 } from '@/utils/sanitizeUTF8';
const fileProcedure = asyncAuthedProcedure.use(async (opts) => {
const { ctx } = opts;
@@ -95,16 +96,13 @@ export const fileRouter = router({
ctx.jwtPayload,
);
- const number = index + 1;
- console.log(`执行第 ${number} 个任务`);
+ console.log(`run embedding task ${index + 1}`);
- console.time(`任务[${number}]: embeddings`);
const embeddings = await agentRuntime.embeddings({
dimensions: 1024,
input: chunks.map((c) => c.text),
model,
});
- console.timeEnd(`任务[${number}]: embeddings`);
const items: NewEmbeddingsItem[] =
embeddings?.map((e, idx) => ({
@@ -114,9 +112,7 @@ export const fileRouter = router({
model,
})) || [];
- console.time(`任务[${number}]: insert db`);
await ctx.embeddingModel.bulkCreate(items);
- console.timeEnd(`任务[${number}]: insert db`);
},
{ concurrency: CONCURRENCY },
);
@@ -215,7 +211,11 @@ export const fileRouter = router({
// after finish partition, we need to filter out some elements
const chunks = chunkResult.chunks.map(
- (item): NewChunkItem => ({ ...item, userId: ctx.userId }),
+ ({ text, ...item }): NewChunkItem => ({
+ ...item,
+ text: text ? sanitizeUTF8(text) : '',
+ userId: ctx.userId,
+ }),
);
const duration = Date.now() - startAt;
diff --git a/src/utils/sanitizeUTF8.test.ts b/src/utils/sanitizeUTF8.test.ts
new file mode 100644
index 0000000000000..39e30c223e488
--- /dev/null
+++ b/src/utils/sanitizeUTF8.test.ts
@@ -0,0 +1,23 @@
+import { sanitizeUTF8 } from './sanitizeUTF8';
+
+describe('UTF-8 Sanitization', () => {
+ it('should handle null bytes', () => {
+ const input = 'test\u0000string';
+ expect(sanitizeUTF8(input)).toBe('teststring');
+ });
+
+ it('should handle invalid UTF-8 sequences', () => {
+ const input = 'test\uD800string'; // 未配对的代理项
+ expect(sanitizeUTF8(input)).toBe('teststring');
+ });
+
+ it('should handle invalid UTF-8 content', () => {
+ const input = '\u0002\u0000\u0000\u0002�{\\"error\\":{\\"code\\":\\"resource_exhausted\\",';
+ expect(sanitizeUTF8(input)).toBe('{\\"error\\":{\\"code\\":\\"resource_exhausted\\",');
+ });
+
+ it('should preserve valid UTF-8 characters', () => {
+ const input = '你好,世界!';
+ expect(sanitizeUTF8(input)).toBe('你好,世界!');
+ });
+});
diff --git a/src/utils/sanitizeUTF8.ts b/src/utils/sanitizeUTF8.ts
new file mode 100644
index 0000000000000..bed8adfc43d53
--- /dev/null
+++ b/src/utils/sanitizeUTF8.ts
@@ -0,0 +1,14 @@
+/**
+ * Sanitize UTF-8 string to remove all control characters and invalid code points.
+ * @param str
+ */
+export const sanitizeUTF8 = (str: string) => {
+ // 移除替换字符 (0xFFFD) 和其他非法字符
+ return (
+ str
+ .replaceAll('�', '') // 移除 Unicode 替换字符
+ // eslint-disable-next-line no-control-regex
+ .replaceAll(/[\u0000-\u0008\u000B\u000C\u000E-\u001F\u007F-\u009F]/g, '') // 移除控制字符
+ .replaceAll(/[\uD800-\uDFFF]/g, '')
+ ); // 移除未配对的代理项码点
+};