Skip to content

Commit

Permalink
🐛 fix: fix ollama intergration checker and client fetch issue (lobehu…
Browse files Browse the repository at this point in the history
…b#5665)

* fix ollama

* add r1 models

* fix ollama error

* fix ollama client fetch error

* improve code

* refactor SetupGuide

* fix ollama client fetch issue

* update models

* update i18n

* fix ollama client fetch issue

* fix test
  • Loading branch information
arvinxx authored Feb 2, 2025
1 parent 6a786eb commit cd09a07
Show file tree
Hide file tree
Showing 80 changed files with 1,459 additions and 871 deletions.
24 changes: 24 additions & 0 deletions locales/ar/components.json
Original file line number Diff line number Diff line change
Expand Up @@ -86,6 +86,30 @@
"emptyModel": "لا توجد نماذج ممكن تمكينها، يرجى الانتقال إلى الإعدادات لتمكينها",
"provider": "مزود"
},
"OllamaSetupGuide": {
"cors": {
"description": "بسبب قيود أمان المتصفح، تحتاج إلى تكوين CORS لـ Ollama لاستخدامه بشكل صحيح.",
"linux": {
"env": "أضف `Environment` تحت قسم [Service]، وأضف متغير البيئة OLLAMA_ORIGINS:",
"reboot": "أعد تحميل systemd وأعد تشغيل Ollama",
"systemd": "استخدم systemd لتحرير خدمة ollama:"
},
"macos": "يرجى فتح تطبيق «الطرفية» ولصق الأوامر التالية ثم الضغط على Enter للتنفيذ",
"reboot": "يرجى إعادة تشغيل خدمة Ollama بعد الانتهاء من التنفيذ",
"title": "تكوين Ollama للسماح بالوصول عبر النطاقات المتعددة",
"windows": "على نظام Windows، انقر على «لوحة التحكم»، ثم انتقل إلى تحرير متغيرات البيئة للنظام. أنشئ متغير بيئة جديد باسم «OLLAMA_ORIGINS» لقائمة المستخدم الخاصة بك، وقيمته هي *، ثم انقر على «موافق/تطبيق» لحفظ التغييرات."
},
"install": {
"description": "يرجى التأكد من أنك قد قمت بتشغيل Ollama، إذا لم تقم بتنزيل Ollama، يرجى زيارة الموقع الرسمي <1>للتنزيل</1>",
"docker": "إذا كنت تفضل استخدام Docker، فإن Ollama يوفر أيضًا صورة Docker رسمية، يمكنك سحبها باستخدام الأمر التالي:",
"linux": {
"command": "قم بتثبيت باستخدام الأمر التالي:",
"manual": "أو يمكنك الرجوع إلى <1>دليل التثبيت اليدوي لنظام Linux</1> للتثبيت بنفسك."
},
"title": "تثبيت وتشغيل تطبيق Ollama محليًا",
"windowsTab": "Windows (نسخة المعاينة)"
}
},
"Thinking": {
"thinking": "في حالة تفكير عميق...",
"thought": "لقد فكرت بعمق (استغرق الأمر {{duration}} ثانية)",
Expand Down
24 changes: 0 additions & 24 deletions locales/ar/modelProvider.json
Original file line number Diff line number Diff line change
Expand Up @@ -154,30 +154,6 @@
"desc": "يجب أن تحتوي على http(s)://، يمكن تركها فارغة إذا لم يتم تحديدها محليًا",
"title": "عنوان وكيل الواجهة"
},
"setup": {
"cors": {
"description": "بسبب قيود الأمان في المتصفح، يجب تكوين الوصول عبر المواقع المختلفة لـ Ollama لاستخدامه بشكل صحيح.",
"linux": {
"env": "في القسم [Service]، أضف `Environment` وأضف متغير البيئة OLLAMA_ORIGINS:",
"reboot": "أعد تحميل systemd وأعد تشغيل Ollama",
"systemd": "استدعاء تحرير خدمة ollama في systemd:"
},
"macos": "افتح تطبيق \"Terminal\" والصق الأمر التالي، ثم اضغط على Enter للتشغيل.",
"reboot": "يرجى إعادة تشغيل خدمة Ollama بعد الانتهاء من التنفيذ",
"title": "تكوين Ollama للسماح بالوصول عبر المواقع المختلفة",
"windows": "على نظام Windows، انقر فوق \"لوحة التحكم\"، ثم ادخل إلى تحرير متغيرات البيئة النظامية. قم بإنشاء متغير بيئي بعنوان \"OLLAMA_ORIGINS\" لحساب المستخدم الخاص بك، واجعل قيمته * ثم انقر على \"موافق/تطبيق\" للحفظ."
},
"install": {
"description": "يرجى التأكد من أنك قد قمت بتشغيل Ollama ، إذا لم تقم بتنزيل Ollama ، يرجى زيارة الموقع الرسمي <1>للتنزيل</1>",
"docker": "إذا كنت تفضل استخدام Docker، يوفر Ollama أيضًا صور Docker الرسمية، يمكنك سحبها باستخدام الأمر التالي:",
"linux": {
"command": "قم بتثبيته باستخدام الأمر التالي:",
"manual": "أو يمكنك الرجوع إلى <1>دليل تثبيت Linux يدويًا</1> للقيام بالتثبيت بنفسك."
},
"title": "تثبيت وتشغيل تطبيق Ollama محليًا",
"windowsTab": "Windows (نسخة معاينة)"
}
},
"title": "Ollama",
"unlock": {
"cancel": "Cancel Download",
Expand Down
15 changes: 15 additions & 0 deletions locales/ar/models.json
Original file line number Diff line number Diff line change
Expand Up @@ -176,6 +176,9 @@
"Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
"description": "Meta Llama 3.1 هو جزء من عائلة نماذج اللغة الكبيرة متعددة اللغات التي طورتها Meta، بما في ذلك متغيرات مدربة مسبقًا ومعدلة وفقًا للتعليمات بحجم 8B و70B و405B. تم تحسين هذا النموذج 8B وفقًا لمشاهدات المحادثات متعددة اللغات، وأظهر أداءً ممتازًا في العديد من اختبارات المعايير الصناعية. تم تدريب النموذج باستخدام أكثر من 15 تريليون توكن من البيانات العامة، واستخدم تقنيات مثل التعديل الخاضع للإشراف والتعلم المعزز من ردود الفعل البشرية لتحسين فائدة النموذج وأمانه. يدعم Llama 3.1 توليد النصوص وتوليد الشيفرة، مع تاريخ معرفة حتى ديسمبر 2023."
},
"Qwen/QVQ-72B-Preview": {
"description": "QVQ-72B-Preview هو نموذج بحثي طورته فريق Qwen يركز على قدرات الاستدلال البصري، حيث يتمتع بميزة فريدة في فهم المشاهد المعقدة وحل المشكلات الرياضية المتعلقة بالرؤية."
},
"Qwen/QwQ-32B-Preview": {
"description": "QwQ-32B-Preview هو أحدث نموذج بحث تجريبي من Qwen، يركز على تعزيز قدرات الاستدلال للذكاء الاصطناعي. من خلال استكشاف آليات معقدة مثل خلط اللغة والاستدلال التكراري، تشمل المزايا الرئيسية القدرة القوية على التحليل الاستدلالي، والقدرات الرياضية والبرمجية. في الوقت نفسه، هناك أيضًا مشكلات في تبديل اللغة، ودورات الاستدلال، واعتبارات الأمان، واختلافات في القدرات الأخرى."
},
Expand Down Expand Up @@ -530,12 +533,21 @@
"databricks/dbrx-instruct": {
"description": "DBRX Instruct يوفر قدرة معالجة تعليمات موثوقة، يدعم تطبيقات متعددة الصناعات."
},
"deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1 هو نموذج استدلال مدفوع بالتعلم المعزز (RL) يعالج مشكلات التكرار وقابلية القراءة في النموذج. قبل استخدام RL، قدم DeepSeek-R1 بيانات بدء باردة، مما أدى إلى تحسين أداء الاستدلال. إنه يقدم أداءً مماثلاً لـ OpenAI-o1 في المهام الرياضية والبرمجية والاستدلال، وقد حسّن النتائج العامة من خلال طرق تدريب مصممة بعناية."
},
"deepseek-ai/DeepSeek-V2.5": {
"description": "DeepSeek V2.5 يجمع بين الميزات الممتازة للإصدارات السابقة، ويعزز القدرات العامة والترميز."
},
"deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3 هو نموذج لغوي مختلط الخبراء (MoE) يحتوي على 6710 مليار معلمة، يستخدم انتباه متعدد الرؤوس (MLA) وبنية DeepSeekMoE، ويجمع بين استراتيجية توازن الحمل بدون خسارة مساعدة، مما يحسن كفاءة الاستدلال والتدريب. من خلال التدريب المسبق على 14.8 تريليون توكن عالي الجودة، وإجراء تعديلات إشرافية وتعلم معزز، يتفوق DeepSeek-V3 في الأداء على نماذج المصدر المفتوح الأخرى، ويقترب من النماذج المغلقة الرائدة."
},
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B هو نموذج متقدم تم تدريبه للحوار المعقد."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 هو نموذج لغوي بصري مختلط الخبراء (MoE) تم تطويره بناءً على DeepSeekMoE-27B، يستخدم بنية MoE ذات تفعيل نادر، محققًا أداءً ممتازًا مع تفعيل 4.5 مليار معلمة فقط. يقدم هذا النموذج أداءً ممتازًا في مهام مثل الأسئلة البصرية، التعرف الضوئي على الأحرف، فهم الوثائق/الجداول/الرسوم البيانية، وتحديد المواقع البصرية."
},
"deepseek-chat": {
"description": "نموذج مفتوح المصدر الجديد الذي يجمع بين القدرات العامة وقدرات البرمجة، لا يحتفظ فقط بالقدرات الحوارية العامة لنموذج الدردشة الأصلي وقدرات معالجة الشيفرة القوية لنموذج Coder، بل يتماشى أيضًا بشكل أفضل مع تفضيلات البشر. بالإضافة إلى ذلك، حقق DeepSeek-V2.5 تحسينات كبيرة في مهام الكتابة، واتباع التعليمات، وغيرها من المجالات."
},
Expand All @@ -548,6 +560,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 هو نموذج شيفرة مفتوح المصدر من نوع خبير مختلط، يقدم أداءً ممتازًا في مهام الشيفرة، ويضاهي GPT4-Turbo."
},
"deepseek-r1": {
"description": "DeepSeek-R1 هو نموذج استدلال مدفوع بالتعلم المعزز (RL) يعالج مشكلات التكرار وقابلية القراءة في النموذج. قبل استخدام RL، قدم DeepSeek-R1 بيانات بدء باردة، مما أدى إلى تحسين أداء الاستدلال. إنه يقدم أداءً مماثلاً لـ OpenAI-o1 في المهام الرياضية والبرمجية والاستدلال، وقد حسّن النتائج العامة من خلال طرق تدريب مصممة بعناية."
},
"deepseek-reasoner": {
"description": "نموذج الاستدلال الذي أطلقته DeepSeek. قبل تقديم الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من المحتوى الفكري لتحسين دقة الإجابة النهائية."
},
Expand Down
24 changes: 24 additions & 0 deletions locales/bg-BG/components.json
Original file line number Diff line number Diff line change
Expand Up @@ -86,6 +86,30 @@
"emptyModel": "Няма активирани модели, моля, посетете настройките и ги активирайте",
"provider": "Доставчик"
},
"OllamaSetupGuide": {
"cors": {
"description": "Поради ограниченията на сигурността на браузъра, трябва да конфигурирате крос-домейн достъп за Ollama, за да можете да го използвате нормално.",
"linux": {
"env": "Добавете `Environment` в секцията [Service] и добавете променливата на средата OLLAMA_ORIGINS:",
"reboot": "Презаредете systemd и рестартирайте Ollama",
"systemd": "Извикайте systemd, за да редактирате услугата ollama:"
},
"macos": "Моля, отворете приложението „Терминал“ и поставете следната команда, след което натиснете Enter, за да я изпълните",
"reboot": "Моля, рестартирайте услугата Ollama след завършване на изпълнението",
"title": "Конфигуриране на Ollama за разрешаване на крос-домейн достъп",
"windows": "На Windows, кликнете върху „Контролен панел“, за да редактирате системните променливи на средата. Създайте нова променлива на средата с име „OLLAMA_ORIGINS“ за вашия потребителски акаунт, със стойност * и кликнете „OK/Приложи“, за да запазите"
},
"install": {
"description": "Моля, уверете се, че сте стартирали Ollama. Ако не сте изтеглили Ollama, моля, посетете официалния сайт <1>за изтегляне</1>",
"docker": "Ако предпочитате да използвате Docker, Ollama предлага и официален Docker образ, който можете да изтеглите с следната команда:",
"linux": {
"command": "Инсталирайте с следната команда:",
"manual": "Или можете да се запознаете с <1>Ръководството за ръчна инсталация на Linux</1> и да инсталирате сами"
},
"title": "Инсталиране и стартиране на приложението Ollama локално",
"windowsTab": "Windows (предварителна версия)"
}
},
"Thinking": {
"thinking": "В процес на дълбочинно размисъл...",
"thought": "Дълбоко размислих (отне ми {{duration}} секунди)",
Expand Down
24 changes: 0 additions & 24 deletions locales/bg-BG/modelProvider.json
Original file line number Diff line number Diff line change
Expand Up @@ -154,30 +154,6 @@
"desc": "Трябва да съдържа http(s)://, местният адрес може да остане празен, ако не е зададен допълнително",
"title": "Адрес на прокси интерфейс"
},
"setup": {
"cors": {
"description": "Заради ограниченията за сигурност в браузъра, трябва да конфигурирате кросдомейн за Ollama, за да работи правилно.",
"linux": {
"env": "Добавете `Environment` в раздела [Service], като добавите променливата на средата OLLAMA_ORIGINS:",
"reboot": "Презаредете systemd и рестартирайте Ollama",
"systemd": "Извикайте systemd за редактиране на услугата ollama:"
},
"macos": "Моля, отворете приложението „Терминал“ и поставете следната команда, след което натиснете Enter",
"reboot": "Моля, рестартирайте услугата Ollama след приключване на изпълнението",
"title": "Конфигуриране на Ollama за позволяване на кросдомейн достъп",
"windows": "На Windows кликнете върху „Контролен панел“, влезте в редактиране на системните променливи. Създайте нова променлива на средата с име „OLLAMA_ORIGINS“, стойност * и кликнете „ОК/Приложи“, за да запазите промените"
},
"install": {
"description": "Моля, потвърдете, че сте активирали Ollama. Ако не сте го изтеглили, моля посетете <1>официалния сайт</1> на Ollama.",
"docker": "Ако предпочитате да използвате Docker, Ollama предлага официален Docker образ, който можете да изтеглите с помощта на следната команда:",
"linux": {
"command": "Инсталирайте чрез следната команда:",
"manual": "Или може да се обадите на <1>Ръководство за ръчна инсталация на Linux</1> и да инсталирате ръчно"
},
"title": "Инсталиране и стартиране на приложението Ollama локално",
"windowsTab": "Windows (преглед)"
}
},
"title": "Ollama",
"unlock": {
"cancel": "Отмяна на изтеглянето",
Expand Down
Loading

0 comments on commit cd09a07

Please sign in to comment.