Skip to content

Commit

Permalink
Update uk.po (#384)
Browse files Browse the repository at this point in the history
  • Loading branch information
OriginalSimon authored Dec 4, 2024
1 parent 2bc8e4b commit cd7cdd1
Showing 1 changed file with 72 additions and 23 deletions.
95 changes: 72 additions & 23 deletions po/uk.po
Original file line number Diff line number Diff line change
Expand Up @@ -157,18 +157,20 @@ msgid ""
"Added launch paramenters --ask MESSAGE, --new-chat CHAT, --select-chat CHAT, "
"--list-chats, --version"
msgstr ""
"Додано параметри запуску: --ask MESSAGE, --new-chat CHAT, --select-chat CHAT, "
"--list-chats, --version"

#: data/com.jeffser.Alpaca.metainfo.xml.in:101
msgid "Added integration as Gnome Search Provider"
msgstr ""
msgstr "Додано інтеграцію як постачальник пошуку Gnome"

#: data/com.jeffser.Alpaca.metainfo.xml.in:102
msgid "Updated Ollama to v0.4.2 with new models"
msgstr ""
msgstr "Оновлено Ollama до версії 0.4.2 з новими моделями"

#: data/com.jeffser.Alpaca.metainfo.xml.in:111
msgid "User messages are now compacted into bubbles"
msgstr ""
msgstr "Повідомлення користувачів тепер скомпоновані у бульбашки"

#: data/com.jeffser.Alpaca.metainfo.xml.in:113
#: data/com.jeffser.Alpaca.metainfo.xml.in:141
Expand All @@ -195,10 +197,12 @@ msgstr "Виправлення"
msgid ""
"Fixed re connection dialog not working when 'use local instance' is selected"
msgstr ""
"Виправлено діалог повторного підключення, який не працював при виборі "
"опції 'використовувати локальний екземпляр'"

#: data/com.jeffser.Alpaca.metainfo.xml.in:116
msgid "Fixed model manager not adapting to large system fonts"
msgstr ""
msgstr "Виправлено менеджер моделей, який не адаптувався до великих системних шрифтів"

#: data/com.jeffser.Alpaca.metainfo.xml.in:125
msgid "Details page for models"
Expand Down Expand Up @@ -1727,12 +1731,16 @@ msgid ""
"The latest series of Code-Specific Qwen models, with significant "
"improvements in code generation, code reasoning, and code fixing."
msgstr ""
"Остання серія моделей Qwen, спеціалізованих для коду, з суттєвими "
"покращеннями у генеруванні коду, розумінні коду та виправленні коду."

#: src/available_models_descriptions.py:3
msgid ""
"Llama 3.2 Vision is a collection of instruction-tuned image reasoning "
"generative models in 11B and 90B sizes."
msgstr ""
"Llama 3.2 Vision — це колекція генеративних моделей, налаштованих для "
"логічного аналізу зображень, у розмірах 11B і 90B."

#: src/available_models_descriptions.py:4
msgid "Meta's Llama 3.2 goes small with 1B and 3B models."
Expand Down Expand Up @@ -2295,6 +2303,8 @@ msgid ""
"A large language model built by the Technology Innovation Institute (TII) "
"for use in summarization, text generation, and chat bots."
msgstr ""
"Велика мовна модель, створена Інститутом інноваційних технологій (TII) для "
"використання в підсумовуванні, генеруванні тексту та чат-ботах."

#: src/available_models_descriptions.py:82
msgid ""
Expand All @@ -2309,6 +2319,8 @@ msgid ""
"Yi-Coder is a series of open-source code language models that delivers state-"
"of-the-art coding performance with fewer than 10 billion parameters."
msgstr ""
"Yi-Coder — це серія відкритих мовних моделей для коду, що забезпечують "
"передову продуктивність програмування з менш ніж 10 мільярдами параметрів."

#: src/available_models_descriptions.py:84
msgid ""
Expand Down Expand Up @@ -2388,6 +2400,8 @@ msgid ""
"A series of multimodal LLMs (MLLMs) designed for vision-language "
"understanding."
msgstr ""
"Серія мультимодальних мовних моделей (MLLM), розроблених для розуміння "
"взаємодії зору та мови."

#: src/available_models_descriptions.py:95
msgid ""
Expand Down Expand Up @@ -2441,6 +2455,8 @@ msgid ""
"Llama-3.1-Nemotron-70B-Instruct is a large language model customized by "
"NVIDIA to improve the helpfulness of LLM generated responses to user queries."
msgstr ""
"Llama-3.1-Nemotron-70B-Instruct — це велика мовна модель, налаштована NVIDIA "
"для покращення корисності відповідей, згенерованих LLM, на запити користувачів."

#: src/available_models_descriptions.py:103
msgid "Uncensored Llama2 based model with support for a 16K context window."
Expand Down Expand Up @@ -2524,6 +2540,9 @@ msgid ""
"cases and support for retrieval augmented generation (RAG), streamlining "
"code generation, translation and bug fixing."
msgstr ""
"Моделі IBM Granite 2B і 8B розроблені для підтримки сценаріїв використання, "
"заснованих на інструментах, а також для підтримки генерації з доповненням "
"отриманих даних (RAG), спрощуючи створення коду, переклад і виправлення помилок."

#: src/available_models_descriptions.py:114
msgid ""
Expand Down Expand Up @@ -2560,12 +2579,16 @@ msgid ""
"Solar Pro Preview: an advanced large language model (LLM) with 22 billion "
"parameters designed to fit into a single GPU"
msgstr ""
"Solar Pro Preview: передова велика мовна модель (LLM) з 22 мільярдами "
"параметрів, розроблена для роботи на одному GPU."

#: src/available_models_descriptions.py:119
msgid ""
"A series of models that convert HTML content to Markdown content, which is "
"useful for content conversion tasks."
msgstr ""
"Серія моделей, які перетворюють HTML-контент у Markdown-контент, що є "
"корисним для завдань конвертації контенту."

#: src/available_models_descriptions.py:120
msgid ""
Expand All @@ -2584,6 +2607,8 @@ msgid ""
"The IBM Granite 1B and 3B models are the first mixture of experts (MoE) "
"Granite models from IBM designed for low latency usage."
msgstr ""
"Моделі IBM Granite 1B і 3B — це перші моделі Granite від IBM на основі "
"мішаних експертів (MoE), розроблені для використання з низькою затримкою."

#: src/available_models_descriptions.py:123
msgid ""
Expand Down Expand Up @@ -2619,26 +2644,32 @@ msgstr "Модель вбудовування від BAAI, що відображ

#: src/available_models_descriptions.py:128
msgid "A state-of-the-art fact-checking model developed by Bespoke Labs."
msgstr ""
msgstr "Модель для перевірки фактів передового рівня, розроблена Bespoke Labs."

#: src/available_models_descriptions.py:129
msgid ""
"ShieldGemma is set of instruction tuned models for evaluating the safety of "
"text prompt input and text output responses against a set of defined safety "
"policies."
msgstr ""
"ShieldGemma — набір моделей, налаштованих для оцінки безпеки введених текстових "
"запитів та текстових відповідей згідно з визначеними політиками безпеки."

#: src/available_models_descriptions.py:130
msgid ""
"An upgraded version of DeekSeek-V2 that integrates the general and coding "
"abilities of both DeepSeek-V2-Chat and DeepSeek-Coder-V2-Instruct."
msgstr ""
"Оновлена версія DeekSeek-V2, що інтегрує загальні та програмні можливості моделей "
"DeepSeek-V2-Chat і DeepSeek-Coder-V2-Instruct."

#: src/available_models_descriptions.py:131
msgid ""
"Llama Guard 3 is a series of models fine-tuned for content safety "
"classification of LLM inputs and responses."
msgstr ""
"Llama Guard 3 — серія моделей, тонко налаштованих для класифікації безпеки "
"вхідних даних та відповідей LLM."

#: src/available_models_descriptions.py:132
msgid ""
Expand All @@ -2653,50 +2684,56 @@ msgid ""
"OpenCoder is an open and reproducible code LLM family which includes 1.5B "
"and 8B models, supporting chat in English and Chinese languages."
msgstr ""
"OpenCoder — це відкрита та відтворювана сім'я мовних моделей для коду, що включає "
"моделі 1.5B і 8B, підтримуючи чат англійською та китайською мовами."

#: src/available_models_descriptions.py:134
msgid ""
"The IBM Granite Guardian 3.0 2B and 8B models are designed to detect risks "
"in prompts and/or responses."
msgstr ""
"Моделі IBM Granite Guardian 3.0 2B та 8B розроблені для виявлення ризиків у запитах "
"та/або відповідях."

#: src/available_models_descriptions.py:135
msgid ""
"Athene-V2 is a 72B parameter model which excels at code completion, "
"mathematics, and log extraction tasks."
msgstr ""
"Athene-V2 — це модель з 72 мільярдами параметрів, яка відзначається виконанням "
"завдань з доповнення коду, математики та вилучення логів."

#: src/connection_handler.py:14
msgid "Alpaca Support"
msgstr ""
msgstr "Підтримка Alpaca"

#: src/connection_handler.py:25
msgid "Model request too large for system"
msgstr ""
msgstr "Запит моделі занадто великий для системи"

#: src/connection_handler.py:28
msgid "AMD GPU detected but the extension is missing, Ollama will use CPU."
msgstr ""
msgstr "Виявлено AMD GPU, але розширення відсутнє, Ollama використовуватиме CPU."

#: src/connection_handler.py:30
msgid "AMD GPU detected but ROCm is missing, Ollama will use CPU."
msgstr ""
msgstr "Виявлено AMD GPU, але відсутній ROCm, Ollama використовуватиме CPU."

#: src/connection_handler.py:33
msgid "Using AMD GPU type '{}'"
msgstr ""
msgstr "Використовуємо тип AMD GPU '{}'"

#: src/connection_handler.py:94
msgid "Ollama instance was shut down due to inactivity"
msgstr "Екземпляр Ollama був вимкнений через неактивність."

#: src/connection_handler.py:132
msgid "Integrated Ollama instance is running"
msgstr ""
msgstr "Інтегрований екземпляр Ollama працює"

#: src/connection_handler.py:148 src/window.ui:494
msgid "Integrated Ollama instance is not running"
msgstr ""
msgstr "Інтегрований екземпляр Ollama не працює"

#: src/window.ui:42
msgid "Menu"
Expand All @@ -2708,11 +2745,11 @@ msgstr "Перемкнути бічну панель"

#: src/window.ui:71
msgid "Search Messages"
msgstr ""
msgstr "Пошук повідомлень"

#: src/window.ui:93
msgid "Loading Instance"
msgstr ""
msgstr "Завантаження екземпляра"

#: src/window.ui:105 src/window.ui:106 src/window.ui:571 src/window.ui:1048
#: src/custom_widgets/model_widget.py:24 src/custom_widgets/model_widget.py:25
Expand All @@ -2725,11 +2762,11 @@ msgstr "Меню чат"

#: src/window.ui:127
msgid "Message search bar"
msgstr ""
msgstr "Панель пошуку повідомлень"

#: src/window.ui:134 src/window.ui:136
msgid "Search messages"
msgstr ""
msgstr "Шукати повідомлення"

#: src/window.ui:150
msgid ""
Expand Down Expand Up @@ -2860,7 +2897,7 @@ msgstr "Діалог управління моделями"

#: src/window.ui:539
msgid "Terminal"
msgstr ""
msgstr "Термінал"

#: src/window.ui:581 src/window.ui:748
msgid "Create Model"
Expand Down Expand Up @@ -2902,7 +2939,7 @@ msgstr ""

#: src/window.ui:713
msgid "Model Details"
msgstr ""
msgstr "Деталі моделі"

#: src/window.ui:776
msgid "Base"
Expand Down Expand Up @@ -3063,11 +3100,21 @@ msgstr "Вставити новий рядок"

#: src/alpaca_search_provider.py.in:51
msgid "Open chat"
msgstr ""
msgstr "Відкрити чат"


#: src/alpaca_search_provider.py.in:39
msgid "Create chat"
msgstr "Створити чат"

#: src/alpaca_search_provider.py.in:40
msgid "Create chat and send message"
msgstr "Створити чат і надіслати повідомлення"
=======
#: src/alpaca_search_provider.py.in:52
msgid "Quick ask"
msgstr ""
msgstr "Швидкий запит"


#: src/generic_actions.py:68
msgid "An error occurred while extracting text from the website"
Expand Down Expand Up @@ -3110,7 +3157,7 @@ msgstr "Чат успішно імпортовано"

#: src/custom_widgets/message_widget.py:53
msgid "Save Message"
msgstr ""
msgstr "Зберегти повідомлення"

#: src/custom_widgets/message_widget.py:87
msgid "Message edited successfully"
Expand Down Expand Up @@ -3140,7 +3187,7 @@ msgstr "Копіювати повідомлення"
#: src/custom_widgets/message_widget.py:162
#: src/custom_widgets/message_widget.py:184
msgid "Run Script"
msgstr ""
msgstr "Запустити скрипт"

#: src/custom_widgets/message_widget.py:177
msgid "Code copied to the clipboard"
Expand All @@ -3151,10 +3198,12 @@ msgid ""
"Make sure you understand what this script does before running it, Alpaca is "
"not responsible for any damages to your device or data"
msgstr ""
"Переконайтеся, що ви розумієте, що робить цей скрипт перед його запуском. Alpaca "
"не несе відповідальності за будь-які пошкодження вашого пристрою чи даних."

#: src/custom_widgets/message_widget.py:187
msgid "Execute"
msgstr ""
msgstr "Виконати"

#: src/custom_widgets/message_widget.py:270
#: src/custom_widgets/message_widget.py:272
Expand Down

0 comments on commit cd7cdd1

Please sign in to comment.