Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

French update #387

Merged
merged 1 commit into from
Nov 28, 2024
Merged
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
70 changes: 57 additions & 13 deletions po/fr.po
Original file line number Diff line number Diff line change
Expand Up @@ -5,10 +5,10 @@
#
msgid ""
msgstr ""
"Project-Id-Version: 2.0.4\n"
"Project-Id-Version: 2.9.0\n"
"Report-Msgid-Bugs-To: \n"
"POT-Creation-Date: 2024-11-26 22:46-0600\n"
"PO-Revision-Date: 2024-10-16 23:14+0200\n"
"PO-Revision-Date: 2024-11-27 22:35+0100\n"
"Last-Translator: Louis Chauvet-Villaret <louis@revuejazz.fr>\n"
"Language-Team: French\n"
"Language: fr\n"
Expand Down Expand Up @@ -147,28 +147,36 @@ msgstr "Nouveautés"
#: data/com.jeffser.Alpaca.metainfo.xml.in:90
msgid "New option --ask MESSAGE, to open a new 'Quick Ask' window"
msgstr ""
"Ajouté : nouvelle option --ask MESSAGE, pour ouvrir une nouvelle fenêtre "
"\"Question rapide\""

#: data/com.jeffser.Alpaca.metainfo.xml.in:91
msgid "Gnome Search integration now works whilst the app is opened"
msgstr ""
"Changé : l'intégration à Gnome Search fonctionne maintenant lorsque "
"l'application est ouverte"

#: data/com.jeffser.Alpaca.metainfo.xml.in:100
msgid ""
"Added launch paramenters --ask MESSAGE, --new-chat CHAT, --select-chat CHAT, "
"--list-chats, --version"
msgstr ""
"Ajouté : paramètre d'exécution : --ask MESSAGE, --new-chat CHAT, --select-"
"chat CHAT, --list-chats, --version"

#: data/com.jeffser.Alpaca.metainfo.xml.in:101
msgid "Added integration as Gnome Search Provider"
msgstr ""
msgstr "Ajouté : intégration à Gnome Search"

#: data/com.jeffser.Alpaca.metainfo.xml.in:102
msgid "Updated Ollama to v0.4.2 with new models"
msgstr ""
"Changé : Ollama mis-à-jour vers la versions 0.4.2 avec de nouveaux modèles"

#: data/com.jeffser.Alpaca.metainfo.xml.in:111
msgid "User messages are now compacted into bubbles"
msgstr ""
"Changé : les messages utilisateurs sont maintenant compactés dans des bulles"

#: data/com.jeffser.Alpaca.metainfo.xml.in:113
#: data/com.jeffser.Alpaca.metainfo.xml.in:141
Expand All @@ -195,14 +203,18 @@ msgstr "Correctifs"
msgid ""
"Fixed re connection dialog not working when 'use local instance' is selected"
msgstr ""
"Résolu : la boite de dialogue de reconnexion ne fonctionnait pas lorsque "
"'utiliser l'instance local' était sélectionné"

#: data/com.jeffser.Alpaca.metainfo.xml.in:116
msgid "Fixed model manager not adapting to large system fonts"
msgstr ""
"Résolu : le gestionnaire de modèle ne s'adaptait pas au système avec une "
"grande taille de police"

#: data/com.jeffser.Alpaca.metainfo.xml.in:125
msgid "Details page for models"
msgstr "Ajouté : "
msgstr "Ajouté : page de détails des modèles"

#: data/com.jeffser.Alpaca.metainfo.xml.in:126
msgid ""
Expand Down Expand Up @@ -1663,7 +1675,7 @@ msgstr "Êtes-vous sur de vouloir supprimer '{}' ?"

#: src/window.py:751 src/custom_widgets/model_widget.py:332
msgid "Delete"
msgstr "Supprimmer"
msgstr "Supprimer"

#: src/window.py:758
msgid "Rename Chat?"
Expand Down Expand Up @@ -1701,7 +1713,7 @@ msgstr ""

#: src/window.py:799
msgid "Error attaching video, please try again"
msgstr ""
msgstr "Erreur lors de l'ajout de la vidéo, merci de réessayer"

#: src/window.py:819
msgid "Attach Website? (Experimental)"
Expand Down Expand Up @@ -1737,11 +1749,11 @@ msgstr "Entrer les informations de l'instance distante pour continuer"

#: src/window.py:903
msgid "An error occurred: {}"
msgstr ""
msgstr "Une erreur est survenue : {}"

#: src/window.py:912 src/window.ui:512
msgid "Quick Ask"
msgstr ""
msgstr "Question rapide"

#: src/window.py:1019
msgid "Clear Chat?"
Expand Down Expand Up @@ -1801,6 +1813,8 @@ msgid ""
"Llama 3.2 Vision is a collection of instruction-tuned image reasoning "
"generative models in 11B and 90B sizes."
msgstr ""
"Llama 3.2 Vision est une collection de modèles génératifs de raisonnement "
"sur les images, ajustés par instructions, avec des tailles de 11B et 90B."

#: src/available_models_descriptions.py:4
msgid "Meta's Llama 3.2 goes small with 1B and 3B models."
Expand Down Expand Up @@ -2381,6 +2395,9 @@ msgid ""
"A large language model built by the Technology Innovation Institute (TII) "
"for use in summarization, text generation, and chat bots."
msgstr ""
"Un grand modèle linguistique développé par le Technology Innovation "
"Institute (TII), conçu pour la synthèse, la génération de texte et les "
"chatbots."

#: src/available_models_descriptions.py:82
msgid ""
Expand Down Expand Up @@ -2534,6 +2551,9 @@ msgid ""
"Llama-3.1-Nemotron-70B-Instruct is a large language model customized by "
"NVIDIA to improve the helpfulness of LLM generated responses to user queries."
msgstr ""
"Llama-3.1-Nemotron-70B-Instruct est un grand modèle linguistique "
"personnalisé par NVIDIA pour améliorer l’utilité des réponses générées par "
"les LLM aux requêtes des utilisateurs."

#: src/available_models_descriptions.py:103
msgid "Uncensored Llama2 based model with support for a 16K context window."
Expand Down Expand Up @@ -2618,6 +2638,10 @@ msgid ""
"cases and support for retrieval augmented generation (RAG), streamlining "
"code generation, translation and bug fixing."
msgstr ""
"Les modèles IBM Granite 2B et 8B sont conçus pour prendre en charge des cas "
"d'utilisation basés sur des outils, ainsi que la génération augmentée par "
"récupération (RAG), simplifiant la génération de code, la traduction et la "
"correction d'erreurs."

#: src/available_models_descriptions.py:114
msgid ""
Expand Down Expand Up @@ -2682,6 +2706,8 @@ msgid ""
"The IBM Granite 1B and 3B models are the first mixture of experts (MoE) "
"Granite models from IBM designed for low latency usage."
msgstr ""
"Les modèles IBM Granite 1B et 3B sont les premiers modèles Granite avec "
"mélange d'experts (MoE) d'IBM, conçus pour un usage à faible latence."

#: src/available_models_descriptions.py:123
msgid ""
Expand All @@ -2696,6 +2722,8 @@ msgid ""
"SmolLM2 is a family of compact language models available in three size: "
"135M, 360M, and 1.7B parameters."
msgstr ""
"SmolLM2 est une famille de modèles linguistiques compacts disponible en "
"trois tailles : 135M, 360M et 1,7B paramètres."

#: src/available_models_descriptions.py:125
msgid ""
Expand All @@ -2710,6 +2738,8 @@ msgid ""
"Cohere For AI's language models trained to perform well across 23 different "
"languages."
msgstr ""
"Les modèles linguistiques de Cohere For AI sont entraînés pour bien "
"performer dans 23 langues différentes."

#: src/available_models_descriptions.py:127
msgid "Embedding model from BAAI mapping texts to vectors."
Expand All @@ -2726,6 +2756,9 @@ msgid ""
"text prompt input and text output responses against a set of defined safety "
"policies."
msgstr ""
"ShieldGemma est un ensemble de modèles ajustés par des instructions, conçus "
"pour évaluer la sécurité des invites textuelles et des réponses textuelles "
"en fonction d'un ensemble de politiques de sécurité définies."

#: src/available_models_descriptions.py:130
msgid ""
Expand All @@ -2740,6 +2773,8 @@ msgid ""
"Llama Guard 3 is a series of models fine-tuned for content safety "
"classification of LLM inputs and responses."
msgstr ""
"Llama Guard 3 est une série de modèles ajustés pour la classification de la "
"sécurité des contenus dans les entrées et réponses des LLM."

#: src/available_models_descriptions.py:132
msgid ""
Expand All @@ -2754,18 +2789,25 @@ msgid ""
"OpenCoder is an open and reproducible code LLM family which includes 1.5B "
"and 8B models, supporting chat in English and Chinese languages."
msgstr ""
"OpenCoder est une famille de modèles linguistiques ouverts et reproductibles "
"pour le code, incluant des modèles de 1,5B et 8B, prenant en charge les "
"conversations en anglais et en chinois."

#: src/available_models_descriptions.py:134
msgid ""
"The IBM Granite Guardian 3.0 2B and 8B models are designed to detect risks "
"in prompts and/or responses."
msgstr ""
"Les modèles IBM Granite Guardian 3.0 2B et 8B sont conçus pour détecter les "
"risques dans les invites et/ou les réponses."

#: src/available_models_descriptions.py:135
msgid ""
"Athene-V2 is a 72B parameter model which excels at code completion, "
"mathematics, and log extraction tasks."
msgstr ""
"Athene-V2 est un modèle de 72 milliards de paramètres qui excelle dans les "
"tâches de complétion de code, de mathématiques et d'extraction de journaux."

#: src/connection_handler.py:14
msgid "Alpaca Support"
Expand Down Expand Up @@ -2874,13 +2916,15 @@ msgstr "Voir l'avertissement lorsque le mode Économie d'énergie est activé"

#: src/window.ui:330
msgid "Default Model"
msgstr ""
msgstr "Modèle par défaut"

#: src/window.ui:331
msgid ""
"The default model to use on new chats and when Alpaca is launched with the "
"option --ask \"message\""
msgstr ""
"Le modèle par défaut utilisé pour les nouvelles discussions et lorsque "
"Alpaca est exécuté avec l'option --ask \"message\""

#: src/window.ui:349
msgid "Temperature"
Expand Down Expand Up @@ -2948,11 +2992,11 @@ msgstr ""

#: src/window.ui:510
msgid "Quick ask dialog"
msgstr ""
msgstr "Boite de dialogue de question rapide"

#: src/window.ui:522
msgid "Save Conversation to Alpaca"
msgstr ""
msgstr "Enregistrer la discussion dans Alpaca"

#: src/window.ui:537 src/window.ui:560
msgid "Manage models dialog"
Expand Down Expand Up @@ -3164,11 +3208,11 @@ msgstr "Insérer une ligne"

#: src/alpaca_search_provider.py.in:51
msgid "Open chat"
msgstr ""
msgstr "Ouvrir la discussion"

#: src/alpaca_search_provider.py.in:52
msgid "Quick ask"
msgstr ""
msgstr "Question rapide"

#: src/generic_actions.py:68
msgid "An error occurred while extracting text from the website"
Expand Down