From a47c8e4e8faab066634c573d9a73320d73c5304a Mon Sep 17 00:00:00 2001 From: Louis Chauvet-Villaret <102870297+loulou64490@users.noreply.github.com> Date: Wed, 27 Nov 2024 22:35:45 +0100 Subject: [PATCH] French update --- po/fr.po | 70 +++++++++++++++++++++++++++++++++++++++++++++----------- 1 file changed, 57 insertions(+), 13 deletions(-) diff --git a/po/fr.po b/po/fr.po index 3056c70..8241205 100644 --- a/po/fr.po +++ b/po/fr.po @@ -5,10 +5,10 @@ # msgid "" msgstr "" -"Project-Id-Version: 2.0.4\n" +"Project-Id-Version: 2.9.0\n" "Report-Msgid-Bugs-To: \n" "POT-Creation-Date: 2024-11-26 22:46-0600\n" -"PO-Revision-Date: 2024-10-16 23:14+0200\n" +"PO-Revision-Date: 2024-11-27 22:35+0100\n" "Last-Translator: Louis Chauvet-Villaret \n" "Language-Team: French\n" "Language: fr\n" @@ -147,28 +147,36 @@ msgstr "Nouveautés" #: data/com.jeffser.Alpaca.metainfo.xml.in:90 msgid "New option --ask MESSAGE, to open a new 'Quick Ask' window" msgstr "" +"Ajouté : nouvelle option --ask MESSAGE, pour ouvrir une nouvelle fenêtre " +"\"Question rapide\"" #: data/com.jeffser.Alpaca.metainfo.xml.in:91 msgid "Gnome Search integration now works whilst the app is opened" msgstr "" +"Changé : l'intégration à Gnome Search fonctionne maintenant lorsque " +"l'application est ouverte" #: data/com.jeffser.Alpaca.metainfo.xml.in:100 msgid "" "Added launch paramenters --ask MESSAGE, --new-chat CHAT, --select-chat CHAT, " "--list-chats, --version" msgstr "" +"Ajouté : paramètre d'exécution : --ask MESSAGE, --new-chat CHAT, --select-" +"chat CHAT, --list-chats, --version" #: data/com.jeffser.Alpaca.metainfo.xml.in:101 msgid "Added integration as Gnome Search Provider" -msgstr "" +msgstr "Ajouté : intégration à Gnome Search" #: data/com.jeffser.Alpaca.metainfo.xml.in:102 msgid "Updated Ollama to v0.4.2 with new models" msgstr "" +"Changé : Ollama mis-à-jour vers la versions 0.4.2 avec de nouveaux modèles" #: data/com.jeffser.Alpaca.metainfo.xml.in:111 msgid "User messages are now compacted into bubbles" msgstr "" +"Changé : les messages utilisateurs sont maintenant compactés dans des bulles" #: data/com.jeffser.Alpaca.metainfo.xml.in:113 #: data/com.jeffser.Alpaca.metainfo.xml.in:141 @@ -195,14 +203,18 @@ msgstr "Correctifs" msgid "" "Fixed re connection dialog not working when 'use local instance' is selected" msgstr "" +"Résolu : la boite de dialogue de reconnexion ne fonctionnait pas lorsque " +"'utiliser l'instance local' était sélectionné" #: data/com.jeffser.Alpaca.metainfo.xml.in:116 msgid "Fixed model manager not adapting to large system fonts" msgstr "" +"Résolu : le gestionnaire de modèle ne s'adaptait pas au système avec une " +"grande taille de police" #: data/com.jeffser.Alpaca.metainfo.xml.in:125 msgid "Details page for models" -msgstr "Ajouté : " +msgstr "Ajouté : page de détails des modèles" #: data/com.jeffser.Alpaca.metainfo.xml.in:126 msgid "" @@ -1663,7 +1675,7 @@ msgstr "Êtes-vous sur de vouloir supprimer '{}' ?" #: src/window.py:751 src/custom_widgets/model_widget.py:332 msgid "Delete" -msgstr "Supprimmer" +msgstr "Supprimer" #: src/window.py:758 msgid "Rename Chat?" @@ -1701,7 +1713,7 @@ msgstr "" #: src/window.py:799 msgid "Error attaching video, please try again" -msgstr "" +msgstr "Erreur lors de l'ajout de la vidéo, merci de réessayer" #: src/window.py:819 msgid "Attach Website? (Experimental)" @@ -1737,11 +1749,11 @@ msgstr "Entrer les informations de l'instance distante pour continuer" #: src/window.py:903 msgid "An error occurred: {}" -msgstr "" +msgstr "Une erreur est survenue : {}" #: src/window.py:912 src/window.ui:512 msgid "Quick Ask" -msgstr "" +msgstr "Question rapide" #: src/window.py:1019 msgid "Clear Chat?" @@ -1801,6 +1813,8 @@ msgid "" "Llama 3.2 Vision is a collection of instruction-tuned image reasoning " "generative models in 11B and 90B sizes." msgstr "" +"Llama 3.2 Vision est une collection de modèles génératifs de raisonnement " +"sur les images, ajustés par instructions, avec des tailles de 11B et 90B." #: src/available_models_descriptions.py:4 msgid "Meta's Llama 3.2 goes small with 1B and 3B models." @@ -2381,6 +2395,9 @@ msgid "" "A large language model built by the Technology Innovation Institute (TII) " "for use in summarization, text generation, and chat bots." msgstr "" +"Un grand modèle linguistique développé par le Technology Innovation " +"Institute (TII), conçu pour la synthèse, la génération de texte et les " +"chatbots." #: src/available_models_descriptions.py:82 msgid "" @@ -2534,6 +2551,9 @@ msgid "" "Llama-3.1-Nemotron-70B-Instruct is a large language model customized by " "NVIDIA to improve the helpfulness of LLM generated responses to user queries." msgstr "" +"Llama-3.1-Nemotron-70B-Instruct est un grand modèle linguistique " +"personnalisé par NVIDIA pour améliorer l’utilité des réponses générées par " +"les LLM aux requêtes des utilisateurs." #: src/available_models_descriptions.py:103 msgid "Uncensored Llama2 based model with support for a 16K context window." @@ -2618,6 +2638,10 @@ msgid "" "cases and support for retrieval augmented generation (RAG), streamlining " "code generation, translation and bug fixing." msgstr "" +"Les modèles IBM Granite 2B et 8B sont conçus pour prendre en charge des cas " +"d'utilisation basés sur des outils, ainsi que la génération augmentée par " +"récupération (RAG), simplifiant la génération de code, la traduction et la " +"correction d'erreurs." #: src/available_models_descriptions.py:114 msgid "" @@ -2682,6 +2706,8 @@ msgid "" "The IBM Granite 1B and 3B models are the first mixture of experts (MoE) " "Granite models from IBM designed for low latency usage." msgstr "" +"Les modèles IBM Granite 1B et 3B sont les premiers modèles Granite avec " +"mélange d'experts (MoE) d'IBM, conçus pour un usage à faible latence." #: src/available_models_descriptions.py:123 msgid "" @@ -2696,6 +2722,8 @@ msgid "" "SmolLM2 is a family of compact language models available in three size: " "135M, 360M, and 1.7B parameters." msgstr "" +"SmolLM2 est une famille de modèles linguistiques compacts disponible en " +"trois tailles : 135M, 360M et 1,7B paramètres." #: src/available_models_descriptions.py:125 msgid "" @@ -2710,6 +2738,8 @@ msgid "" "Cohere For AI's language models trained to perform well across 23 different " "languages." msgstr "" +"Les modèles linguistiques de Cohere For AI sont entraînés pour bien " +"performer dans 23 langues différentes." #: src/available_models_descriptions.py:127 msgid "Embedding model from BAAI mapping texts to vectors." @@ -2726,6 +2756,9 @@ msgid "" "text prompt input and text output responses against a set of defined safety " "policies." msgstr "" +"ShieldGemma est un ensemble de modèles ajustés par des instructions, conçus " +"pour évaluer la sécurité des invites textuelles et des réponses textuelles " +"en fonction d'un ensemble de politiques de sécurité définies." #: src/available_models_descriptions.py:130 msgid "" @@ -2740,6 +2773,8 @@ msgid "" "Llama Guard 3 is a series of models fine-tuned for content safety " "classification of LLM inputs and responses." msgstr "" +"Llama Guard 3 est une série de modèles ajustés pour la classification de la " +"sécurité des contenus dans les entrées et réponses des LLM." #: src/available_models_descriptions.py:132 msgid "" @@ -2754,18 +2789,25 @@ msgid "" "OpenCoder is an open and reproducible code LLM family which includes 1.5B " "and 8B models, supporting chat in English and Chinese languages." msgstr "" +"OpenCoder est une famille de modèles linguistiques ouverts et reproductibles " +"pour le code, incluant des modèles de 1,5B et 8B, prenant en charge les " +"conversations en anglais et en chinois." #: src/available_models_descriptions.py:134 msgid "" "The IBM Granite Guardian 3.0 2B and 8B models are designed to detect risks " "in prompts and/or responses." msgstr "" +"Les modèles IBM Granite Guardian 3.0 2B et 8B sont conçus pour détecter les " +"risques dans les invites et/ou les réponses." #: src/available_models_descriptions.py:135 msgid "" "Athene-V2 is a 72B parameter model which excels at code completion, " "mathematics, and log extraction tasks." msgstr "" +"Athene-V2 est un modèle de 72 milliards de paramètres qui excelle dans les " +"tâches de complétion de code, de mathématiques et d'extraction de journaux." #: src/connection_handler.py:14 msgid "Alpaca Support" @@ -2874,13 +2916,15 @@ msgstr "Voir l'avertissement lorsque le mode Économie d'énergie est activé" #: src/window.ui:330 msgid "Default Model" -msgstr "" +msgstr "Modèle par défaut" #: src/window.ui:331 msgid "" "The default model to use on new chats and when Alpaca is launched with the " "option --ask \"message\"" msgstr "" +"Le modèle par défaut utilisé pour les nouvelles discussions et lorsque " +"Alpaca est exécuté avec l'option --ask \"message\"" #: src/window.ui:349 msgid "Temperature" @@ -2948,11 +2992,11 @@ msgstr "" #: src/window.ui:510 msgid "Quick ask dialog" -msgstr "" +msgstr "Boite de dialogue de question rapide" #: src/window.ui:522 msgid "Save Conversation to Alpaca" -msgstr "" +msgstr "Enregistrer la discussion dans Alpaca" #: src/window.ui:537 src/window.ui:560 msgid "Manage models dialog" @@ -3164,11 +3208,11 @@ msgstr "Insérer une ligne" #: src/alpaca_search_provider.py.in:51 msgid "Open chat" -msgstr "" +msgstr "Ouvrir la discussion" #: src/alpaca_search_provider.py.in:52 msgid "Quick ask" -msgstr "" +msgstr "Question rapide" #: src/generic_actions.py:68 msgid "An error occurred while extracting text from the website"