From 3a4a6ec788525ec9b283bae28a4a34bfe62b7562 Mon Sep 17 00:00:00 2001 From: Armin Date: Mon, 10 Feb 2025 11:54:36 -0500 Subject: [PATCH] Added Romanian localization files --- ro/chat.json | 135 +++++++++++++++++++++++ ro/config.json | 261 +++++++++++++++++++++++++++++++++++++++++++++ ro/developer.json | 59 ++++++++++ ro/discover.json | 27 +++++ ro/download.json | 23 ++++ ro/models.json | 77 +++++++++++++ ro/onboarding.json | 23 ++++ ro/settings.json | 146 +++++++++++++++++++++++++ ro/shared.json | 4 + ro/sidebar.json | 9 ++ 10 files changed, 764 insertions(+) create mode 100644 ro/chat.json create mode 100644 ro/config.json create mode 100644 ro/developer.json create mode 100644 ro/discover.json create mode 100644 ro/download.json create mode 100644 ro/models.json create mode 100644 ro/onboarding.json create mode 100644 ro/settings.json create mode 100644 ro/shared.json create mode 100644 ro/sidebar.json diff --git a/ro/chat.json b/ro/chat.json new file mode 100644 index 0000000..4232418 --- /dev/null +++ b/ro/chat.json @@ -0,0 +1,135 @@ +{ + "modelLoaderPlaceholder": "Selectați un model pentru a încărca", + "systemPromptPlaceholder": "Setați promptul sistemului", + "userRoleText": "Utilizator", + "assistantRoleText": "Asistent", + "addMessageButtonText": "Adaugă", + "addMessageButtonText/toolTip": "Inseră un mesaj în context fără a declanșa predicția", + "sendMessageButtonText": "Trimite", + "sendMessageButtonText/toolTip": "Trimiteți promptul și istoricul conversației către model pentru procesare", + "ejectButtonText": "Scoate", + "unloadTooltip": "Scoate modelul din memorie", + "cancelButtonText": "Anulează", + "loadButtonText": "Încarcă", + "advancedSegmentText": "Avansat", + "chatSegmentText": "Chat", + "chatSidebarTitle": "Conversații", + "newChatButton": "Chat nou", + "newFolderButton": "Folder nou", + "viewModeLabel": "Mod de vizualizare", + "noChatSelected": "Nicio conversație selectată", + "chatViewOptions": "Opțiuni de vizualizare a chatului", + "uiControls/title": "Setări de afișare", + "noChatSelectedPlaceholder": "Selectați un chat", + "unnamedChat": "Chat fără nume", + "emptyFolder": "Folderul este gol", + + "tokenCount": "Număr de tokeni", + "messageTokenCount": "Numărul de tokeni de intrare", + "tokenCount/hint": "Numărul de tokeni din mesaj. Se numără folosind tokenizer-ul modelului selectat în prezent.\n\nNecesită ca modelul să fie încărcat.", + "messageTokenCount/hint": "Numărul de tokeni din mesaj. Se numără folosind tokenizer-ul modelului selectat în prezent.\n\nNu include o estimare a tokenilor din atașamentele fișierelor.", + + "notes": "Notele conversației", + "notes/add/first": "Adaugă o notă", + "notes/add/another": "Adaugă o altă notă", + "notes/hint": "Salvați notițele în această conversație. Notițele sunt doar pentru referința dvs. și nu sunt trimise modelului. Toate modificările se salvează automat.", + "notes/placeholder": "Tastați notițele aici...", + "notes/delete": "Șterge notă", + "notes/noteLabel": "Notă", + "notes/copyContent": "Copiază conținutul notei", + + "actions/sendMessage/error": "Trimiterea mesajului a eșuat", + "actions/loadModel/error": "🥲 Încărcarea modelului a eșuat", + "actions/addFile": "[Experimental] Atașați un fișier la acest mesaj\n(.pdf, text simplu sau .docx)", + "actions/changeRole": "Comutați între rolurile de Utilizator și Asistent.\n\nAcest lucru este util pentru orientarea conversației într-o direcție specifică.\n\nPoate fi folosit pentru scenarii de 'învățare cu câteva exemple' sau 'învățare în context'", + "actions/addImage": "Adaugă imagine", + "actions/deleteMessage": "Șterge mesajul", + "actions/deleteMessage/confirmation": "Sunteți sigur că doriți să ștergeți acest mesaj?", + "actions/copyMessage": "Copiază mesajul", + "actions/editMessage": "Editează mesajul", + "actions/editMessage/cannotEditPreprocessed": "Nu se pot edita mesajele preprocesate deoarece acestea vor fi suprascrise după rularea preprocesorului. Pentru a edita mesajul, fie: \n\n - Comutați la mesajul original și editați-l, fie\n - Schimbați preprocesorul astfel încât să producă rezultatul dorit.", + "actions/regenerateMessage": "Regenerare mesaj", + "actions/regenerateMessage/error": "Regenerarea mesajului a eșuat", + "actions/branchChat": "Creează o ramură a conversației după acest mesaj", + "actions/branchChat/error": "Crearea ramurii conversației a eșuat", + "actions/continueAssistantMessage": "Continuă mesajul asistentului", + "actions/continueAssistantMessage/error": "Continuarea mesajului asistentului a eșuat", + "actions/predictNext": "Generează răspuns AI", + "actions/predictNext/error": "Generarea răspunsului AI a eșuat", + "actions/loadLastModel": "Reîncarcă ultimul model folosit", + "actions/loadLastModel/tooltip": "Faceți clic pentru a încărca modelul care a fost folosit ultima dată în această conversație:\n\n{{lastModel}}", + "actions/loadLastModel/error": "Încărcarea ultimului model folosit a eșuat.", + "actions/continueCurrentModel": "Folosește modelul curent", + "actions/continueCurrentModel/tooltip": "Modelul curent: {{currentModel}}", + "actions/changeToLastUsedModel": "Încarcă {{lastModel}}", + "actions/changeToLastUsedModel/error": "Schimbarea la ultimul model folosit a eșuat.", + "actions/changeToLastUsedModel/tooltip": "Ați folosit un alt model ultima dată când ați trimis un mesaj în această conversație. Faceți clic pentru a descărca modelul selectat în prezent ({{currentModel}}) și pentru a încărca modelul care a fost folosit ultima dată în această conversație:\n\n{{lastModel}}", + "actions/switchToLastUsedModel": "Comută la {{lastModel}}", + "actions/switchToLastUsedModel/tooltip": "Faceți clic pentru a comuta la modelul care a fost folosit ultima dată în această conversație:\n\n{{lastModel}}", + "actions/loadModel": "Încarcă un model", + "actions/toggleViewingProcessed/currentlyFalse": "În prezent vizualizați mesajul original. Faceți clic pentru a vizualiza mesajul preprocesat.", + "actions/toggleViewingProcessed/currentlyTrue": "În prezent vizualizați mesajul preprocesat. Faceți clic pentru a vizualiza mesajul original.", + "actions/toggleViewingProcessed/hint": "Înainte ca un mesaj să fie trimis către model, acesta poate fi preprocesat de un preprocesor de prompt. Faceți clic pentru a comuta între vizualizarea mesajului original și a celui preprocesat. Doar mesajul preprocesat este trimis modelului.", + "editMessageConfirm/title": "Păstrezi modificările?", + "editMessageConfirm/message": "Ați făcut modificări la un mesaj. Doriți să le păstrați?", + "editMessageConfirm/keepEditing": "Continuă editarea", + "editMessageConfirm/save": "Salvează", + "editMessageConfirm/discard": "Renunță la modificări", + "tokenCount/totalNotAvailable": "Tokeni: {{current}}", + "tokenCount/totalAvailable": "Tokeni: {{current}}/{{total}}", + "tokenCount/totalAvailablePercentage": "Contextul este {{percentage}}% complet", + "tokenCount/contextOverflow": "Contextul nepreprocesat este mai mare decât limita maximă de tokeni a modelului. În funcție de politica dvs. privind depășirea contextului, acesta poate fi trunchiat sau mesajul poate să nu fie trimis.", + "modelLoader/manualLoadParams/label": "Alegeți manual parametrii de încărcare a modelului", + "modelLoader/manualLoadParams/hint/before": "(sau țineți apăsat ", + "modelLoader/manualLoadParams/hint/after": ")", + "actions/move/error": "Mutarea a eșuat", + "actions/rename/error": "Redenumirea a eșuat", + "actions/createChatAtRoot": "Chat nou...", + "actions/createChatAtRoot/error": "Crearea chatului la rădăcină a eșuat", + "actions/createFolderAtRoot": "Folder nou...", + "actions/createFolderAtRoot/error": "Crearea folderului la rădăcină a eșuat", + "actions/createChat/error": "Crearea chatului a eșuat", + + "userFile/fileSizeLimit": "Limita de dimensiune a fișierului este ", + "userFile/noImageSupport": "Modelul nu suportă intrare de imagini", + "userFile/errorPrefix": "Eroare - ", + "userFile/supportedImagePrefix": "Tip de imagine neacceptat - doar ", + "userFile/supportedImageSuffix": " sunt acceptate", + "userFile/unsupportedFileType": "Tip de fișier neacceptat - sunt acceptate doar imagini, PDF-uri și fișiere .txt.", + "userFile/maxFilesPerMessage": "Numărul maxim de fișiere per mesaj a fost atins. Nu se pot adăuga mai mult de {{files}} fișiere. ", + "userFile/maxFileSizePerMessage": "Dimensiunea maximă a fișierului per mesaj a fost atinsă. Nu se pot adăuga fișiere mai mari de {{size}}. ", + "errorTitle": "Eroare", + + "prediction/busyModel/title": "Modelul este ocupat", + "prediction/busyModel/message": "Vă rugăm așteptați până când modelul termină și încercați din nou", + "prediction/noModel/title": "Niciun model selectat", + "prediction/modelLoading": "Mesajul a fost pus în coadă și va fi trimis când modelul se termină de încărcat", + "prediction/noModel/message": "Selectați un model pentru a trimite un mesaj", + "prediction/unloadModel/error": "Descărcarea modelului a eșuat", + + "retrieval/user/processingLabel": "AI-ul se gândește...", + "retrieval/powerUser/intermediateStepsHidden": "Pașii intermediari sunt ascunși. Faceți clic pentru a extinde.", + "retrieval/actions/clickToExpand": "Faceți clic pentru a extinde pașii intermediari", + "retrieval/actions/clickToCollapse": "Faceți clic pentru a restrânge pașii intermediari", + + "style": "Aspectul chatului", + + "style/viewMode/markdown": "Markdown", + "style/viewMode/plaintext": "Text simplu", + "style/viewMode/monospace": "Monospațiat", + + "style/fontSize/label": "Mărimea fontului", + "style/fontSize/medium": "Implicit", + "style/fontSize/large": "Mare", + "style/fontSize/small": "Mic", + + "topBarActions/duplicateChat": "Duplică chatul", + "topBarActions/clearChat": "Șterge toate mesajele", + "topBarActions/clearChatConfirmation": "Sunteți sigur că doriți să ștergeți toate mesajele din acest chat?", + "topBarActions/clearChatCancel": "Anulează", + "topBarActions/clearChatDelete": "Șterge tot", + + "noModels.indexing": "Indexarea fișierelor de model... (acest lucru poate dura câteva momente)", + "noModels.downloading": "Se descarcă primul dvs. LLM...", + "noModels": "Încă nu există LLM-uri! Descărcați unul pentru a începe!" +} diff --git a/ro/config.json b/ro/config.json new file mode 100644 index 0000000..c8c9253 --- /dev/null +++ b/ro/config.json @@ -0,0 +1,261 @@ +{ + "noInstanceSelected": "Nicio instanță de model selectată", + "resetToDefault": "Resetare", + "showAdvancedSettings": "Arată setările avansate", + "showAll": "Toate", + "basicSettings": "De bază", + "configSubtitle": "Încărcați sau salvați presetările și experimentați cu suprascrieri de parametri de model", + "inferenceParameters/title": "Parametri de predicție", + "inferenceParameters/info": "Experimentați cu parametrii care influențează predicția.", + "generalParameters/title": "General", + "samplingParameters/title": "Eșantionare", + "basicTab": "De bază", + "advancedTab": "Avansat", + "advancedTab/title": "🧪 Configurare avansată", + "advancedTab/expandAll": "Extinde tot", + "advancedTab/overridesTitle": "Suprascrieri de configurare", + "advancedTab/noConfigsText": "Nu aveți modificări nesalvate - editați valorile de mai sus pentru a vedea suprascrierile aici.", + "loadInstanceFirst": "Încărcați un model pentru a vizualiza parametrii configurabili", + "noListedConfigs": "Niciun parametru configurabil", + "generationParameters/info": "Experimentați cu parametrii de bază care influențează generarea textului.", + "loadParameters/title": "Parametri de încărcare", + "loadParameters/description": "Setări pentru a controla modul în care modelul este inițializat și încărcat în memorie.", + "loadParameters/reload": "Reîncărcați pentru a aplica modificările", + "discardChanges": "Renunță la modificări", + "loadModelToSeeOptions": "Încărcați un model pentru a vedea opțiunile", + "llm.prediction.systemPrompt/title": "Prompt de sistem", + "llm.prediction.systemPrompt/description": "Utilizați acest câmp pentru a furniza instrucțiuni de fundal modelului, cum ar fi un set de reguli, constrângeri sau cerințe generale.", + "llm.prediction.systemPrompt/subTitle": "Ghid pentru AI", + "llm.prediction.temperature/title": "Temperatură", + "llm.prediction.temperature/subTitle": "Cât de multă aleatorietate să se introducă. 0 va da același rezultat de fiecare dată, în timp ce valori mai mari vor crește creativitatea și variația", + "llm.prediction.temperature/info": "Din documentația de ajutor a llama.cpp: \"Valoarea implicită este <{{dynamicValue}}>, care oferă un echilibru între aleatorietate și determinism. În extreme, o temperatură de 0 va alege întotdeauna următorul token cel mai probabil, conducând la ieșiri identice la fiecare rulare\"", + "llm.prediction.llama.sampling/title": "Eșantionare", + "llm.prediction.topKSampling/title": "Eșantionare Top K", + "llm.prediction.topKSampling/subTitle": "Limitează următorul token la unul dintre cei top-k tokeni cei mai probabili. Funcționează similar cu temperatura", + "llm.prediction.topKSampling/info": "Din documentația de ajutor a llama.cpp:\n\nEșantionarea top-k este o metodă de generare a textului care selectează următorul token doar dintre cei k tokeni cei mai probabili prezis de model.\n\nAjută la reducerea riscului de a genera tokeni cu probabilitate scăzută sau fără sens, dar poate limita și diversitatea ieșirii.\n\nO valoare mai mare pentru top-k (de exemplu, 100) va considera mai mulți tokeni și va conduce la un text mai divers, în timp ce o valoare mai mică (de exemplu, 10) se va concentra pe cei mai probabili tokeni și va genera un text mai conservator.\n\n• Valoarea implicită este <{{dynamicValue}}>", + "llm.prediction.llama.cpuThreads/title": "Fire CPU", + "llm.prediction.llama.cpuThreads/subTitle": "Numărul de fire CPU utilizate în timpul inferenței", + "llm.prediction.llama.cpuThreads/info": "Numărul de fire utilizate în timpul calculului. Creșterea numărului de fire nu se corelează întotdeauna cu o performanță mai bună. Implicit este <{{dynamicValue}}>.", + "llm.prediction.maxPredictedTokens/title": "Limitează lungimea răspunsului", + "llm.prediction.maxPredictedTokens/subTitle": "Opțional, limitați lungimea răspunsului AI", + "llm.prediction.maxPredictedTokens/info": "Controlați lungimea maximă a răspunsului chatbot-ului. Activați pentru a seta o limită maximă de răspuns, sau dezactivați pentru a lăsa chatbot-ul să decidă când să se oprească.", + "llm.prediction.maxPredictedTokens/inputLabel": "Lungime maximă a răspunsului (tokeni)", + "llm.prediction.maxPredictedTokens/wordEstimate": "Aproximativ {{maxWords}} cuvinte", + "llm.prediction.repeatPenalty/title": "Penalizare repetare", + "llm.prediction.repeatPenalty/subTitle": "Cât de mult să descurajeze repetarea aceluiași token", + "llm.prediction.repeatPenalty/info": "Din documentația de ajutor a llama.cpp: \"Ajută la prevenirea generării de text repetitiv sau monoton.\n\nO valoare mai mare (de exemplu, 1.5) va penaliza repetițiile mai sever, în timp ce o valoare mai mică (de exemplu, 0.9) va fi mai indulgentă.\" • Valoarea implicită este <{{dynamicValue}}>", + "llm.prediction.minPSampling/title": "Eșantionare Min P", + "llm.prediction.minPSampling/subTitle": "Probabilitatea de bază minimă pentru ca un token să fie selectat pentru ieșire", + "llm.prediction.minPSampling/info": "Din documentația de ajutor a llama.cpp:\n\nProbabilitatea minimă pentru ca un token să fie considerat, relativ la probabilitatea celui mai probabil token. Trebuie să fie în [0, 1].\n\n• Valoarea implicită este <{{dynamicValue}}>", + "llm.prediction.topPSampling/title": "Eșantionare Top P", + "llm.prediction.topPSampling/subTitle": "Probabilitatea cumulativă minimă pentru următorii tokeni posibili. Funcționează similar cu temperatura", + "llm.prediction.topPSampling/info": "Din documentația de ajutor a llama.cpp:\n\nEșantionarea top-p, cunoscută și sub numele de eșantionare nucleu, este o altă metodă de generare a textului care selectează următorul token dintr-un subset de tokeni care împreună au o probabilitate cumulativă de cel puțin p.\n\nAceastă metodă oferă un echilibru între diversitate și calitate, luând în considerare atât probabilitățile tokenilor, cât și numărul de tokeni din care se alege.\n\nO valoare mai mare pentru top-p (de exemplu, 0.95) va conduce la un text mai divers, în timp ce o valoare mai mică (de exemplu, 0.5) va genera un text mai concentrat și conservator. Trebuie să fie în intervalul (0, 1].\n\n• Valoarea implicită este <{{dynamicValue}}>", + "llm.prediction.stopStrings/title": "Șiruri de oprire", + "llm.prediction.stopStrings/subTitle": "Șiruri care ar trebui să oprească modelul din generarea altor tokeni", + "llm.prediction.stopStrings/info": "Șiruri specifice care, atunci când sunt întâlnite, vor opri modelul din generarea de tokeni suplimentari", + "llm.prediction.stopStrings/placeholder": "Introduceți un șir și apăsați ⏎", + "llm.prediction.contextOverflowPolicy/title": "Depășirea contextului", + "llm.prediction.contextOverflowPolicy/subTitle": "Cum ar trebui să se comporte modelul atunci când conversația devine prea mare pentru a fi gestionată", + "llm.prediction.contextOverflowPolicy/info": "Decideți ce să faceți atunci când conversația depășește dimensiunea memoriei de lucru a modelului ('context')", + "llm.prediction.llama.frequencyPenalty/title": "Penalizare de frecvență", + "llm.prediction.llama.presencePenalty/title": "Penalizare de prezență", + "llm.prediction.llama.tailFreeSampling/title": "Eșantionare fără coadă", + "llm.prediction.llama.locallyTypicalSampling/title": "Eșantionare local tipică", + "llm.prediction.onnx.topKSampling/title": "Eșantionare Top K", + "llm.prediction.onnx.topKSampling/subTitle": "Limitează următorul token la unul dintre cei top-k tokeni cei mai probabili. Funcționează similar cu temperatura", + "llm.prediction.onnx.topKSampling/info": "Din documentația ONNX:\n\nNumărul de tokeni cu cea mai mare probabilitate din vocabular care se păstrează pentru filtrarea top-k\n\n• Acest filtru este dezactivat implicit", + "llm.prediction.onnx.repeatPenalty/title": "Penalizare repetare", + "llm.prediction.onnx.repeatPenalty/subTitle": "Cât de mult să descurajeze repetarea aceluiași token", + "llm.prediction.onnx.repeatPenalty/info": "O valoare mai mare descurajează modelul să se repete", + "llm.prediction.onnx.topPSampling/title": "Eșantionare Top P", + "llm.prediction.onnx.topPSampling/subTitle": "Probabilitatea cumulativă minimă pentru următorii tokeni posibili. Funcționează similar cu temperatura", + "llm.prediction.onnx.topPSampling/info": "Din documentația ONNX:\n\nSe păstrează doar tokenii cei mai probabili ale căror probabilități însumează TopP sau mai mult pentru generare\n\n• Acest filtru este dezactivat implicit", + "llm.prediction.seed/title": "Sămânță", + "llm.prediction.structured/title": "Ieșire structurată", + "llm.prediction.structured/info": "Ieșire structurată", + "llm.prediction.structured/description": "Avansat: puteți furniza un JSON Schema pentru a impune un anumit format de ieșire de la model. Citiți [documentația](https://lmstudio.ai/docs/advanced/structured-output) pentru a afla mai multe", + "llm.prediction.promptTemplate/title": "Șablon de prompt", + "llm.prediction.promptTemplate/subTitle": "Formatul în care mesajele din chat sunt trimise către model. Schimbarea acestuia poate introduce comportamente neașteptate - asigurați-vă că știți ce faceți!", + "llm.load.contextLength/title": "Lungimea contextului", + "llm.load.contextLength/subTitle": "Numărul maxim de tokeni la care modelul poate presta atenție într-un singur prompt. Consultați opțiunile de depășire a conversației din secțiunea \"Parametri de inferență\" pentru mai multe modalități de gestionare a acestui aspect", + "llm.load.contextLength/info": "Specificați numărul maxim de tokeni pe care modelul îi poate considera simultan, influențând cât de mult context reține în timpul procesării", + "llm.load.contextLength/warning": "Setarea unei valori mari pentru lungimea contextului poate afecta semnificativ utilizarea memoriei", + "llm.load.seed/title": "Sămânță", + "llm.load.seed/subTitle": "Sămânța pentru generatorul de numere aleatorii folosit în generarea textului. -1 înseamnă aleatoriu", + "llm.load.seed/info": "Sămânță aleatorie: Setează sămânța pentru generarea numerelor aleatorii pentru a asigura rezultate reproductibile", + "llm.load.llama.evalBatchSize/title": "Dimensiunea lotului de evaluare", + "llm.load.llama.evalBatchSize/subTitle": "Numărul de tokeni de intrare procesați simultan. Creșterea acestuia îmbunătățește performanța, dar crește utilizarea memoriei", + "llm.load.llama.evalBatchSize/info": "Setează numărul de exemple procesate împreună într-un singur lot în timpul evaluării, afectând viteza și utilizarea memoriei", + "llm.load.llama.ropeFrequencyBase/title": "Bază de frecvență RoPE", + "llm.load.llama.ropeFrequencyBase/subTitle": "Frecvență de bază personalizată pentru încorporările poziționale rotative (RoPE). Creșterea acesteia poate permite o performanță mai bună la lungimi mari de context", + "llm.load.llama.ropeFrequencyBase/info": "[Avansat] Ajustează frecvența de bază pentru codarea pozițională rotativă, influențând modul în care informațiile poziționale sunt încorporate", + "llm.load.llama.ropeFrequencyScale/title": "Scală de frecvență RoPE", + "llm.load.llama.ropeFrequencyScale/subTitle": "Lungimea contextului este scalată prin acest factor pentru a extinde contextul efectiv folosind RoPE", + "llm.load.llama.ropeFrequencyScale/info": "[Avansat] Modifică scalarea frecvenței pentru codarea pozițională rotativă pentru a controla granularitatea codării poziționale", + "llm.load.llama.acceleration.offloadRatio/title": "Descărcare GPU", + "llm.load.llama.acceleration.offloadRatio/subTitle": "Numărul de straturi discrete ale modelului care vor fi procesate pe GPU pentru accelerare", + "llm.load.llama.acceleration.offloadRatio/info": "Setați numărul de straturi de descărcat pe GPU.", + "llm.load.llama.flashAttention/title": "Atenție Flash", + "llm.load.llama.flashAttention/subTitle": "Reduce utilizarea memoriei și timpul de generare la unele modele", + "llm.load.llama.flashAttention/info": "Accelerează mecanismele de atenție pentru o procesare mai rapidă și mai eficientă", + "llm.load.numExperts/title": "Numărul de experți", + "llm.load.numExperts/subTitle": "Numărul de experți de utilizat în model", + "llm.load.numExperts/info": "Numărul de experți de utilizat în model", + "llm.load.llama.keepModelInMemory/title": "Păstrează modelul în memorie", + "llm.load.llama.keepModelInMemory/subTitle": "Rezervați memorie sistemului pentru model, chiar și când este descărcat pe GPU. Îmbunătățește performanța, dar necesită mai multă memorie RAM a sistemului", + "llm.load.llama.keepModelInMemory/info": "Previne ca modelul să fie mutat pe disc, asigurând un acces mai rapid în schimbul unei utilizări mai mari a memoriei RAM", + "llm.load.llama.useFp16ForKVCache/title": "Utilizează FP16 pentru cache-ul KV", + "llm.load.llama.useFp16ForKVCache/info": "Reduce utilizarea memoriei prin stocarea cache-ului în precizie redusă (FP16)", + "llm.load.llama.tryMmap/title": "Încearcă mmap()", + "llm.load.llama.tryMmap/subTitle": "Îmbunătățește timpul de încărcare al modelului. Dezactivarea acestuia poate îmbunătăți performanța când modelul este mai mare decât memoria RAM disponibilă", + "llm.load.llama.tryMmap/info": "Încărcați fișierele modelului direct de pe disc în memorie", + "embedding.load.contextLength/title": "Lungimea contextului", + "embedding.load.contextLength/subTitle": "Numărul maxim de tokeni la care modelul poate presta atenție într-un singur prompt. Consultați opțiunile de depășire a conversației din secțiunea \"Parametri de inferență\" pentru mai multe modalități de gestionare a acestui aspect", + "embedding.load.contextLength/info": "Specificați numărul maxim de tokeni pe care modelul îi poate considera simultan, influențând cât de mult context reține în timpul procesării", + "embedding.load.llama.ropeFrequencyBase/title": "Bază de frecvență RoPE", + "embedding.load.llama.ropeFrequencyBase/subTitle": "Frecvență de bază personalizată pentru încorporările poziționale rotative (RoPE). Creșterea acesteia poate permite o performanță mai bună la lungimi mari de context", + "embedding.load.llama.ropeFrequencyBase/info": "[Avansat] Ajustează frecvența de bază pentru codarea pozițională rotativă, influențând modul în care informațiile poziționale sunt încorporate", + "embedding.load.llama.evalBatchSize/title": "Dimensiunea lotului de evaluare", + "embedding.load.llama.evalBatchSize/subTitle": "Numărul de tokeni de intrare procesați simultan. Creșterea acestuia îmbunătățește performanța, dar crește utilizarea memoriei", + "embedding.load.llama.evalBatchSize/info": "Setează numărul de tokeni procesați împreună într-un singur lot în timpul evaluării", + "embedding.load.llama.ropeFrequencyScale/title": "Scală de frecvență RoPE", + "embedding.load.llama.ropeFrequencyScale/subTitle": "Lungimea contextului este scalată prin acest factor pentru a extinde contextul efectiv folosind RoPE", + "embedding.load.llama.ropeFrequencyScale/info": "[Avansat] Modifică scalarea frecvenței pentru codarea pozițională rotativă pentru a controla granularitatea codării poziționale", + "embedding.load.llama.acceleration.offloadRatio/title": "Descărcare GPU", + "embedding.load.llama.acceleration.offloadRatio/subTitle": "Numărul de straturi discrete ale modelului care vor fi procesate pe GPU pentru accelerare", + "embedding.load.llama.acceleration.offloadRatio/info": "Setați numărul de straturi de descărcat pe GPU.", + "embedding.load.llama.keepModelInMemory/title": "Păstrează modelul în memorie", + "embedding.load.llama.keepModelInMemory/subTitle": "Rezervați memorie sistemului pentru model, chiar și când este descărcat pe GPU. Îmbunătățește performanța, dar necesită mai multă memorie RAM", + "embedding.load.llama.keepModelInMemory/info": "Previne ca modelul să fie mutat pe disc, asigurând un acces mai rapid în schimbul unei utilizări mai mari a memoriei RAM", + "embedding.load.llama.tryMmap/title": "Încearcă mmap()", + "embedding.load.llama.tryMmap/subTitle": "Îmbunătățește timpul de încărcare al modelului. Dezactivarea acestuia poate îmbunătăți performanța când modelul este mai mare decât memoria RAM disponibilă", + "embedding.load.llama.tryMmap/info": "Încărcați fișierele modelului direct de pe disc în memorie", + "embedding.load.seed/title": "Sămânță", + "embedding.load.seed/subTitle": "Sămânța pentru generatorul de numere aleatorii folosit în generarea textului. -1 înseamnă sămânță aleatorie", + "embedding.load.seed/info": "Sămânță aleatorie: Setează sămânța pentru generarea numerelor aleatorii pentru a asigura rezultate reproductibile", + "presetTooltip": { + "included/title": "Valori presetate", + "included/description": "Câmpurile următoare vor fi aplicate", + "included/empty": "Niciun câmp al acestei presetări nu se aplică în acest context.", + "included/conflict": "Vi se va cere să alegeți dacă să aplicați această valoare", + "separateLoad/title": "Configurare la încărcare", + "separateLoad/description.1": "Presetarea include, de asemenea, următoarea configurare la încărcare. Configurările la încărcare sunt pentru întregul model și necesită reîncărcarea modelului pentru a intra în vigoare. Țineți apăsat", + "separateLoad/description.2": "pentru a aplica la", + "separateLoad/description.3": ".", + "excluded/title": "Este posibil să nu se aplice", + "excluded/description": "Câmpurile următoare sunt incluse în presetare, dar nu se aplică în contextul curent.", + "legacy/title": "Presetare veche", + "legacy/description": "Această presetare este o presetare veche. Include următoarele câmpuri care fie sunt gestionate automat acum, fie nu mai sunt aplicabile." + }, + "customInputs": { + "string": { + "emptyParagraph": "" + }, + "checkboxNumeric": { + "off": "Oprit" + }, + "stringArray": { + "empty": "" + }, + "llmPromptTemplate": { + "type": "Tip", + "types.jinja/label": "Șablon (Jinja)", + "jinja.bosToken/label": "Token BOS", + "jinja.eosToken/label": "Token EOS", + "jinja.template/label": "Șablon", + "jinja/error": "Parcurgerea șablonului Jinja a eșuat: {{error}}", + "jinja/empty": "Vă rugăm să introduceți un șablon Jinja mai sus.", + "jinja/unlikelyToWork": "Șablonul Jinja furnizat mai sus este puțin probabil să funcționeze deoarece nu face referire la variabila \"messages\". Vă rugăm verificați dacă ați introdus un șablon corect.", + "types.manual/label": "Manual", + "manual.subfield.beforeSystem/label": "Înainte de Sistem", + "manual.subfield.beforeSystem/placeholder": "Introduceți prefixul pentru sistem...", + "manual.subfield.afterSystem/label": "După Sistem", + "manual.subfield.afterSystem/placeholder": "Introduceți sufixul pentru sistem...", + "manual.subfield.beforeUser/label": "Înainte de Utilizator", + "manual.subfield.beforeUser/placeholder": "Introduceți prefixul pentru utilizator...", + "manual.subfield.afterUser/label": "După Utilizator", + "manual.subfield.afterUser/placeholder": "Introduceți sufixul pentru utilizator...", + "manual.subfield.beforeAssistant/label": "Înainte de Asistent", + "manual.subfield.beforeAssistant/placeholder": "Introduceți prefixul pentru asistent...", + "manual.subfield.afterAssistant/label": "După Asistent", + "manual.subfield.afterAssistant/placeholder": "Introduceți sufixul pentru asistent...", + "stopStrings/label": "Șiruri suplimentare de oprire", + "stopStrings/subTitle": "Șiruri de oprire specifice șablonului care vor fi utilizate pe lângă șirurile de oprire specificate de utilizator." + }, + "contextLength": { + "maxValueTooltip": "Acesta este numărul maxim de tokeni pe care modelul a fost antrenat să îi gestioneze. Faceți clic pentru a seta contextul la această valoare", + "maxValueTextStart": "Modelul suportă până la", + "maxValueTextEnd": "tokeni", + "tooltipHint": "Deși un model poate suporta un anumit număr de tokeni, performanța poate scădea dacă resursele mașinii dvs. nu pot gestiona încărcarea - folosiți precauție când măriți această valoare" + }, + "contextOverflowPolicy": { + "stopAtLimit": "Oprește la limită", + "stopAtLimitSub": "Oprește generarea odată ce memoria modelului se umple", + "truncateMiddle": "Trunchiază mijlocul", + "truncateMiddleSub": "Elimină mesajele din mijlocul conversației pentru a face loc celor noi. Modelul își va aminti totuși începutul conversației", + "rollingWindow": "Fereastră derulantă", + "rollingWindowSub": "Modelul va primi întotdeauna ultimele câteva mesaje, dar poate uita începutul conversației" + }, + "llamaAccelerationOffloadRatio": { + "max": "MAX", + "off": "Oprit" + } + }, + "saveConflictResolution": { + "title": "Alegeți care valori să fie incluse în presetare", + "description": "Alegeți valorile de păstrat", + "instructions": "Faceți clic pe o valoare pentru a o include", + "userValues": "Valoare anterioară", + "presetValues": "Valoare nouă", + "confirm": "Confirmă", + "cancel": "Anulează" + }, + "applyConflictResolution": { + "title": "Ce valori să păstrați?", + "description": "Aveți modificări nesalvate care se suprapun cu presetarea primită", + "instructions": "Faceți clic pe o valoare pentru a o păstra", + "userValues": "Valoare curentă", + "presetValues": "Valoare din presetarea primită", + "confirm": "Confirmă", + "cancel": "Anulează" + }, + "empty": "", + "presets": { + "title": "Presetare", + "commitChanges": "Confirmă modificările", + "commitChanges/description": "Confirmă modificările în presetare.", + "commitChanges.manual": "Câmpuri noi detectate. Veți putea alege care modificări să fie incluse în presetare.", + "commitChanges.manual.hold.0": "Țineți", + "commitChanges.manual.hold.1": "pentru a alege care modificări să fie confirmate în presetare.", + "commitChanges.saveAll.hold.0": "Țineți", + "commitChanges.saveAll.hold.1": "pentru a salva toate modificările.", + "commitChanges.saveInPreset.hold.0": "Țineți", + "commitChanges.saveInPreset.hold.1": "pentru a salva doar modificările la câmpurile care sunt deja incluse în presetare.", + "commitChanges/error": "Confirmarea modificărilor în presetare a eșuat.", + "commitChanges.manual/description": "Alegeți care modificări să fie incluse în presetare.", + "saveAs": "Salvează ca nou...", + "presetNamePlaceholder": "Introduceți un nume pentru presetare...", + "cannotCommitChangesLegacy": "Aceasta este o presetare veche și nu poate fi modificată. Puteți crea o copie folosind \"Salvează ca nou...\".", + "cannotCommitChangesNoChanges": "Nicio modificare de confirmat.", + "emptyNoUnsaved": "Selectați o presetare...", + "emptyWithUnsaved": "Presetare nesalvată", + "saveEmptyWithUnsaved": "Salvează presetarea ca...", + "saveConfirm": "Salvează", + "saveCancel": "Anulează", + "saving": "Se salvează...", + "save/error": "Salvarea presetării a eșuat.", + "deselect": "Deselectează presetarea", + "deselect/error": "Deselectarea presetării a eșuat.", + "select/error": "Selectarea presetării a eșuat.", + "delete/error": "Ștergerea presetării a eșuat.", + "discardChanges": "Renunță la nesalvat", + "discardChanges/info": "Renunță la toate modificările nesalvate și restaurează presetarea la starea sa originală", + "newEmptyPreset": "Creează o presetare nouă și goală...", + "contextMenuSelect": "Selectează presetarea", + "contextMenuDelete": "Șterge" + }, + "flashAttentionWarning": "Flash Attention este o caracteristică experimentală care poate cauza probleme la unele modele. Dacă întâmpinați probleme, încercați să o dezactivați.", + "seedUncheckedHint": "Sămânță aleatorie", + "ropeFrequencyBaseUncheckedHint": "Auto", + "ropeFrequencyScaleUncheckedHint": "Auto" +} diff --git a/ro/developer.json b/ro/developer.json new file mode 100644 index 0000000..2d1c2fd --- /dev/null +++ b/ro/developer.json @@ -0,0 +1,59 @@ +{ + "tabs/server": "Server Local", + "tabs/extensions": "Runtime-uri LM", + "loadSettings/title": "Încarcă setările", + "modelSettings/placeholder": "Selectați un model pentru a-l configura", + "loadedModels/noModels": "Niciun model încărcat", + "serverOptions/title": "Opțiuni server", + "serverOptions/configurableTitle": "Opțiuni configurabile", + "serverOptions/port/hint": "Setați portul de rețea pe care serverul local îl va folosi. Implicit, LM Studio folosește portul 1234. Este posibil să fie necesar să schimbați acest port dacă este deja folosit.", + "serverOptions/port/subtitle": "Portul de ascultare", + "serverOptions/autostart/title": "Pornire automată a serverului", + "serverOptions/autostart/hint": "Porniți serverul local automat când este încărcat un model", + "serverOptions/port/integerWarning": "Numărul portului trebuie să fie un număr întreg", + "serverOptions/port/invalidPortWarning": "Portul trebuie să fie între 1 și 65535", + "serverOptions/cors/title": "Activează CORS", + "serverOptions/cors/hint1": "Activarea CORS (Cross-origin Resource Sharing) permite site-urilor pe care le vizitați să trimită cereri către serverul LM Studio.", + "serverOptions/cors/hint2": "CORS poate fi necesar atunci când se fac cereri dintr-o pagină web sau din VS Code / altă extensie.", + "serverOptions/cors/subtitle": "Permite cereri cross-origin", + "serverOptions/network/title": "Servește pe rețeaua locală", + "serverOptions/network/subtitle": "Expune serverul către dispozitivele din rețea", + "serverOptions/network/hint1": "Indică dacă se permit conexiuni de la alte dispozitive din rețea.", + "serverOptions/network/hint2": "Dacă nu este bifat, serverul va asculta doar pe localhost.", + "serverOptions/verboseLogging/title": "Jurnalizare detaliată", + "serverOptions/verboseLogging/subtitle": "Activează jurnalizarea detaliată pentru serverul local", + "serverOptions/contentLogging/title": "Înregistrează prompturile și răspunsurile", + "serverOptions/contentLogging/subtitle": "Setări locale de înregistrare a cererilor/răspunsurilor", + "serverOptions/contentLogging/hint": "Indică dacă prompturile și/sau răspunsurile trebuie înregistrate în fișierul de log al serverului local.", + "serverOptions/jitModelLoading/title": "Încărcare model la momentul necesar", + "serverOptions/jitModelLoading/hint": "Când este activat, dacă o cerere specifică un model care nu este încărcat, acesta va fi încărcat automat și folosit. În plus, endpoint-ul \"/v1/models\" va include și modelele care nu sunt încărcate încă.", + "serverOptions/loadModel/error": "Încărcarea modelului a eșuat", + "serverLogs/scrollToBottom": "Salt la final", + "serverLogs/clearLogs": "Șterge jurnalele ({{shortcut}})", + "serverLogs/openLogsFolder": "Deschide folderul cu jurnalele serverului", + "runtimeSettings/title": "Setări runtime", + "runtimeSettings/chooseRuntime/title": "Configurează runtime-urile", + "runtimeSettings/chooseRuntime/description": "Selectați un runtime pentru fiecare format de model", + "runtimeSettings/chooseRuntime/showAllVersions/label": "Afișează toate runtime-urile", + "runtimeSettings/chooseRuntime/showAllVersions/hint": "Implicit, LM Studio afișează doar cea mai recentă versiune a fiecărui runtime compatibil. Activați această opțiune pentru a vedea toate runtime-urile disponibile.", + "runtimeSettings/chooseRuntime/select/placeholder": "Selectați un runtime", + "runtimeOptions/uninstall": "Dezinstalează", + "runtimeOptions/uninstallDialog/title": "Dezinstalare {{runtimeName}}?", + "runtimeOptions/uninstallDialog/body": "Dezinstalarea acestui runtime îl va elimina din sistem. Această acțiune este ireversibilă.", + "runtimeOptions/uninstallDialog/body/caveats": "Unele fișiere pot fi eliminate doar după repornirea LM Studio.", + "runtimeOptions/uninstallDialog/error": "Dezinstalarea runtime-ului a eșuat", + "runtimeOptions/uninstallDialog/confirm": "Continuă și dezinstalează", + "runtimeOptions/uninstallDialog/cancel": "Anulează", + "runtimeOptions/noCompatibleRuntimes": "Nu s-au găsit runtime-uri compatibile", + "runtimeOptions/downloadIncompatibleRuntime": "S-a constatat că acest runtime este incompatibil cu mașina dvs. Cel mai probabil nu va funcționa.", + "runtimeOptions/noRuntimes": "Nu s-au găsit runtime-uri", + "inferenceParams/noParams": "Nu există parametri de inferență configurabili disponibili pentru acest tip de model", + "endpoints/openaiCompatRest/title": "Endpoint-uri suportate (asemănătoare OpenAI)", + "endpoints/openaiCompatRest/getModels": "Listează modelele încărcate în prezent", + "endpoints/openaiCompatRest/postCompletions": "Mod de completare text. Prezice următorul token (sau tokeni) dat un prompt. Notă: OpenAI consideră acest endpoint ca fiind 'depreciat'.", + "endpoints/openaiCompatRest/postChatCompletions": "Completări de chat. Trimiteți istoricul chat-ului modelului pentru a prezice următorul răspuns al asistentului", + "endpoints/openaiCompatRest/postEmbeddings": "Încapsulare text. Generează reprezentări vectoriale pentru un text dat. Primește un șir sau un array de șiruri.", + "model.createVirtualModelFromInstance": "Salvează setările ca un nou model virtual", + "model.createVirtualModelFromInstance/error": "Salvarea setărilor ca model virtual nou a eșuat", + "apiConfigOptions/title": "Configurare API" +} diff --git a/ro/discover.json b/ro/discover.json new file mode 100644 index 0000000..13c5f9b --- /dev/null +++ b/ro/discover.json @@ -0,0 +1,27 @@ +{ + "collectionsColumn": "Colecții", + "collectionsColumn/collectionError": "Eroare la încărcarea detaliilor colecției, vă rugăm să încercați o reîmprospătare mai sus", + "bookmarksColumn": "Marcaje", + "searchBar/placeholder": "Caută modele pe Hugging Face...", + "searchBar/huggingFaceError": "A apărut o eroare la preluarea rezultatelor de pe Hugging Face, vă rugăm să încercați din nou după câteva momente", + "sortBy": "Sortează după", + "searchSortKey.default/title": "Cea mai bună potrivire", + "searchSortKey.likes/title": "Cele mai multe aprecieri", + "searchSortKey.downloads/title": "Cele mai descărcate", + "searchSortKey.lastModified/title": "Actualizat recent", + "searchSortKey.createdAt/title": "Creat recent", + "download.option.willFitEstimation.caveat": "Pot exista și alți factori care împiedică încărcarea, cum ar fi arhitectura modelului, integritatea fișierului modelului sau cantitatea de memorie disponibilă pe computerul dvs.", + "download.option.willFitEstimation.fullGPUOffload/title": "Posibilă descărcare completă pe GPU", + "download.option.willFitEstimation.fullGPUOffload/description": "Acest model s-ar putea încadra complet în memoria GPU-ului dvs. Acest lucru ar putea accelera considerabil inferența.", + "download.option.willFitEstimation.partialGPUOffload/title": "Posibilă descărcare parțială pe GPU", + "download.option.willFitEstimation.partialGPUOffload/description": "Acest model s-ar putea încadra parțial în memoria GPU-ului dvs. Acest lucru ar putea adesea accelera considerabil inferența.", + "download.option.willFitEstimation.fitWithoutGPU/title": "Probabil se încadrează", + "download.option.willFitEstimation.fitWithoutGPU/description": "Acest model se va încadra probabil în memoria mașinii dvs.", + "download.option.willFitEstimation.willNotFit/title": "Probabil prea mare pentru această mașină", + "download.option.willFitEstimation.willNotFit/description": "Cerințele de memorie pentru a utiliza cu succes acest fișier de model ar putea depăși resursele disponibile pe mașina dvs. Descărcarea acestui fișier NU este recomandată.", + "download.option.recommended/title": "Recomandat", + "download.option.recommended/description": "Pe baza hardware-ului dvs., această opțiune este recomandată.", + "download.option.downloaded/title": "Descărcat", + "download.option.downloading/title": "Se descarcă ({{progressPercentile}}%)", + "feed.action.refresh": "Reîmprospătează feed-ul" +} diff --git a/ro/download.json b/ro/download.json new file mode 100644 index 0000000..c4d1009 --- /dev/null +++ b/ro/download.json @@ -0,0 +1,23 @@ +{ + "postDownloadActionExecutor.zipExtraction/status": "Se extrage...", + "finalizing": "Se finalizează descărcarea... (aceasta poate dura câteva momente)", + "noOptions": "Nu sunt disponibile opțiuni compatibile pentru descărcare", + + "deeplink/confirmation/title": "Descarcă modelul de pe Hugging Face 🤗", + "deeplink/confirmation/subtitle": "{{modelName}}", + "deeplink/confirmation/selectRecommended": "Selectează recomandat", + "deeplink/confirmation/selectOption": "Selectează opțiunea de descărcare", + "deeplink/confirmation/recommendedOption": "Probabil cea mai bună opțiune pentru majoritatea utilizatorilor", + "deeplink/confirmation/downloadButton": "Descarcă", + "deeplink/confirmation/nevermindButton": "Anulează", + "deeplink/confirmation/modelPresent/title": "Model Hugging Face găsit ✅", + "deeplink/confirmation/modelPresent/body": "Vești bune! Acest fișier de model este deja disponibil pe mașina dvs. locală.", + "deeplink/confirmation/loadInChat": "Încarcă {{ modelName }} într-un chat nou", + "deeplink/error/modelNotFound/title": "Ruh roh, nu am putut găsi acest model", + "deeplink/error/modelNotFound/body": "Verificați numele modelului și încercați o altă opțiune de descărcare.", + "deeplink/actions/trySearching": "Încercați să căutați {{modelName}} pe Hugging Face", + + "downloadsPanel/title": "Descărcări", + "downloadsPanel/sectionTitle/ongoing": "În curs", + "downloadsPanel/sectionTitle/completed": "Completate" +} diff --git a/ro/models.json b/ro/models.json new file mode 100644 index 0000000..1d9ed21 --- /dev/null +++ b/ro/models.json @@ -0,0 +1,77 @@ +{ + "pageTitle": "Modelele mele", + "filterModels.placeholder": "Filtrează modele...", + "aggregate_one": "Aveți {{count}} model local, ocupând {{size}} de spațiu pe disc.", + "aggregate_other": "Aveți {{count}} modele locale, ocupând {{size}} de spațiu pe disc.", + "noModels.title": "Modelele LLM locale vor apărea aici.", + "noModels.discoverButtonText.prefix": "Faceți clic pe", + "noModels.discoverButtonText.suffix": "butonul din bara laterală stângă pentru a descoperi LLM-uri interesante de descărcat.", + "noModels.discoverModelsPrompt": "Mergeți și explorați câteva LLM-uri locale!", + "modelsTable.arch/label": "Arhitectură", + "modelsTable.params/label": "Parametri", + "modelsTable.publisher/label": "Publicator", + "modelsTable.llms/label": "LLM", + "modelsTable.embeddingModels/label": "Model de încorporare", + "modelsTable.quant/label": "Quantizare", + "modelsTable.size/label": "Dimensiune", + "modelsTable.dateModified/label": "Data modificării", + "modelsTable.actions/label": "Acțiuni", + "action.model.delete": "Șterge", + "action.model.delete.full": "Șterge Modelul", + "action.model.delete.confirmation/title": "Șterge {{name}}", + "action.model.delete.confirmation/description": "Ești sigur? Aceasta va șterge definitiv toate fișierele asociate acestui model de pe mașina ta. Această acțiune este ireversibilă.", + "action.model.delete.confirmation/confirm": "Șterge", + "action.createVirtual": "Creează Presetare", + "action.createVirtual.details/title": "Creează o Presetare", + "action.createVirtual.details/create": "Creează", + "action.createVirtual.details/cancel": "Anulează", + "action.createVirtual.details.base/label": "Model de bază", + "action.createVirtual.details.name/label": "Nume", + "action.createVirtual.details.includeMachineDependent/label": "Include configurații dependente de mașină", + "action.createVirtual.details.includeMachineDependent/hint": "Indică dacă să se includă configurații dependente de mașină (cum ar fi setările GPU) în presetare. Nu este recomandat pentru partajare.", + "action.createVirtual.details.config/label": "Suprascrieri de configurare", + "action.createVirtual.details.config.empty": "Nici o suprascriere de configurare", + "action.createVirtual.details/error": "Nu s-a putut crea modelul virtual.", + "loader.model.bundled": "Încorporat", + "action.cancel": "Anulează", + "indexingOngoing": "Indexarea modelelor... Acest lucru poate dura câteva secunde", + "index/error_one": "Nu s-a putut indexa următorul dosar:", + "index/error_other": "Nu s-a putut indexa următoarele dosare:", + "badModels/title_one": "Nu s-a putut indexa următorul model:", + "badModels/title_other": "Nu s-a putut indexa următoarele modele:", + "badModels.virtualModelIncorrectPlacement": "Plasarea modelului virtual este incorectă. Se aștepta la {{expected}}. S-a găsit la {{actual}}.", + "badModels.virtualModelBadManifest": "Manifest virtual al modelului invalid (model.yaml):", + "unresolvedVirtualModels/title_one": "Nu s-a putut rezolva următorul model virtual:", + "unresolvedVirtualModels/title_other": "Nu s-au putut rezolva următoarele modele virtuale:", + "unresolvedVirtualModels.missingModel": "Lipsește un model dependent: {{missing}}. Calea dependenței:\n{{chain}}", + "unresolvedVirtualModels.circular": "S-a detectat o dependență circulară.", + "modelsDirectory": "Directorul modelelor", + "modelsDirectory.change": "Schimbă...", + "modelsDirectory.reset": "Resetează la calea implicită", + "modelsDirectory.reveal.mac": "Arată în Finder", + "modelsDirectory.reveal.nonMac": "Deschide în File Explorer", + "modelsDirectory.forceReindex": "Reîmprospătează", + "loadState/loaded": "Încărcat", + "loadState/loading": "Se încarcă", + "loadState/unloaded": "Descărcat", + "loadState/unloading": "Se descarcă", + "loadState/idle": "Inactiv", + "pinned": "Acest model este fixat. Faceți clic dreapta pentru a-l debifa.", + "lastUsed": "Ultima utilizare", + "contextMenu/pin": "Fixează sus", + "contextMenu/unpin": "Debifează", + "contextMenu/copyAbsolutePath": "Copiază calea absolută", + "contextMenu/copyModelName": "Copiază numele modelului", + "contextMenu/openOnHuggingFace": "Deschide pe Hugging Face", + "tooltip/moreActions": "Mai multe acțiuni", + "tooltip/getInfo": "Obține informații", + "tooltip/editModelDefaultConfig": "Editează configurația implicită a modelului", + "tooltip/editModelDefaultConfig/override": "Editează configurația implicită a modelului (* are suprascrieri)", + "tooltip/visionBadge": "Acest model poate procesa intrări de imagine", + "visionBadge/label": "Compatibil cu viziunea", + "loader.action.load": "Încarcă Modelul", + "loader.action.clearChanges": "Șterge Modificările", + "loader.action.cancel": "Anulează", + "loader.info.clickOnModelToLoad": "Faceți clic pe un model pentru a-l încărca", + "loader.info.configureLoadParameters": "Configurează parametrii de încărcare ai modelului" +} diff --git a/ro/onboarding.json b/ro/onboarding.json new file mode 100644 index 0000000..51b689a --- /dev/null +++ b/ro/onboarding.json @@ -0,0 +1,23 @@ +{ + "action.skipOnboarding": "Sari peste introducere", + "action.next": "Următorul", + "action.back": "Înapoi", + "action.finish": "Finalizează", + "dismissable_rag_modal": { + "description": "Acum puteți conversa cu propriile documente folosind Generarea Îmbunătățită prin Recuperare (RAG). Iată cum funcționează:", + "instructions": { + "attach_files": { + "title": "Atașați fișiere", + "description": "Încărcați până la 5 fișiere simultan, cu o dimensiune totală maximă de 30MB. Formatele suportate includ PDF, DOCX, TXT și CSV." + }, + "be_specific": { + "title": "Fii specific", + "description": "Când puneți întrebări, menționați cât mai multe detalii. Acest lucru ajută sistemul să recupereze informațiile cele mai relevante din documentele dvs." + }, + "get_responses": { + "title": "Obțineți răspunsuri și experimentați", + "description": "LLM-ul va analiza interogarea dvs. și extrasele recuperate din documentele dvs., încercând să genereze un răspuns. Experimentați cu diferite interogări pentru a găsi ce funcționează cel mai bine." + } + } + } +} diff --git a/ro/settings.json b/ro/settings.json new file mode 100644 index 0000000..6d83c63 --- /dev/null +++ b/ro/settings.json @@ -0,0 +1,146 @@ +{ + "settingsDialogTitle": "Setările aplicației", + "settingsDialogButtonTooltip": "Setările aplicației", + "settingsNewButtonPopover": { + "primary": "Setările aplicației se află acum în colțul din dreapta-jos", + "secondary": "Faceți clic pe butonul ⚙️ pentru a le deschide.", + "tertiary": "Sau apăsați" + }, + "appUpdate": "Actualizare aplicație", + "checkingAppUpdate": "Se caută actualizări...", + "checkForUpdates": "Verifică actualizări", + "failedCheckingAppUpdate": "Nu s-au putut verifica actualizările", + "newUpdateAvailable": "O nouă versiune a LM Studio este disponibilă! 🎉", + "newBetaUpdateAvailable": "O nouă versiune beta a LM Studio este disponibilă! 🛠️🎉", + "downloadingInProgress": "Se descarcă actualizarea...", + "downloadUpdate": "Actualizează la LM Studio {{version}}", + "downloadBetaUpdate": "Actualizează la LM Studio Beta {{version}} (build {{build}})", + "downloadCompleted": "Descărcare completă!", + "updateDownloadComplete": "Actualizare descărcată cu succes!", + "updateDownloadFailed": "Actualizare eșuată!", + "hasFinishedDownloading": "a terminat descărcarea.", + "yourCurrentVersion": "În prezent utilizați:", + "latestVersion": "Cea mai recentă versiune este:", + "downloadLabel": "Actualizează acum", + "cancelDownloadLabel": "Anulează", + "downloadingUpdate": "Se descarcă actualizarea...", + "updateDownloaded": "Noua actualizare a fost descărcată cu succes. Reporniți aplicația pentru a aplica actualizarea.", + "restartAppToUpdate": "Reporniți aplicația pentru a aplica actualizarea", + "appUpdatedToastTitle": "Actualizat la {{title}}", + "appUpdatedToastDescriptionPrefix": "Vizualizați ", + "AppUpdatedToastDescriptionReleaseNotes": "Note de lansare", + "doItLater": "Voi face mai târziu", + "failedToUpdate": "Actualizarea aplicației a eșuat. Vă rugăm să verificați conexiunea la internet sau încercați din nou mai târziu.", + "retryInBackground": "Reîncercați în fundal", + "laterLabel": "Mai târziu", + "releaseNotesLabel": "Note de lansare", + "remindMeLater": "Reamintește-mi mai târziu", + "failedDownloadUpdate": "Descărcarea actualizării a eșuat", + "installAndRelaunch": "Instalează și repornește", + "uptodate": "Sunteți la zi! Versiunea curentă este {{version}}", + "preferences": "Preferințe", + "general": "General", + "sideButtonLabels": "Afișează etichetele butoanelor laterale", + "colorThemeLabel": "Temă de culoare", + "complexityLevelLabel": "Nivelul de complexitate al interfeței utilizator", + "selectComplexityLevelPlaceholder": "Alegeți un nivel implicit de complexitate al interfeței", + "userComplexityLevelLabel": "Utilizator", + "powerUserComplexityLevelLabel": "Utilizator avansat", + "developerComplexityLevelLabel": "Dezvoltator", + "chatSettingsLabel": "Setări chat", + "chat/alwaysShowPromptTemplate": "Afișează întotdeauna șablonul de prompt în bara laterală a chatului", + "chat/highlightChatMessageOnHover": "Evidențiază mesajul de chat la trecerea cursorului", + "chat/doubleClickMessageToEdit": "Dublu clic pe un mesaj de chat pentru a edita", + "chat/keyboardShortcuts/label": "Comenzi rapide de la tastatură", + "chat/keyboardShortcuts/verbPrefix": "Utilizați", + "chat/keyboardShortcuts/regenerate": "pentru a regenera ultimul mesaj din chat", + "chat/keyboardShortcuts/sendMessage": "pentru a trimite mesajul", + "onboarding/blockTitle": "Sugestii pentru onboarding", + "onboarding/dismissedHints": "Sugestii de onboarding respinse", + "onboarding/resetHintTooltip": "Faceți clic pentru a reactiva această sugestie de onboarding", + "onboarding/resetAllHints": "Resetați toate sugestiile de onboarding", + "onboarding/noneDismissed": "Nicio sugestie respinsă, în prezent toate sugestiile de ajutor pentru onboarding vor apărea până când vor fi respinse", + "firstTimeExperienceLabel": "Experiența de chat la prima utilizare", + "firstTimeExperienceMarkCompletedLabel": "Marchează ca finalizat", + "firstTimeExperienceResetLabel": "Resetează", + "showPromptSuggestionsLabel": "Afișează sugestii de prompt la crearea unui chat nou", + "darkThemeLabel": "Întunecat", + "lightThemeLabel": "Luminos", + "systemThemeLabel": "Auto", + "sepiaThemeLabel": "Sepia", + "unloadPreviousModelLabel": "La selectarea unui model pentru încărcare, descărcați mai întâi orice model încărcat", + "languageLabel": "Limbă", + "changeLanguageLabel": "Alegeți limba aplicației (încă în dezvoltare)", + "developerLabel": "Dezvoltator", + "showExperimentalFeaturesLabel": "Afișează funcții experimentale", + "appFirstLoadLabel": "Experiența la prima pornire a aplicației", + "showDebugInfoBlocksInChatLabel": "Afișează blocurile de informații de depanare în chat", + "autoLoadBundledLLMLabel": "Încarcă automat un model LLM încorporat la pornire", + "showReleaseNotes": "Afișează notele de lansare", + "hideReleaseNotes": "Ascunde notele de lansare", + "backendDownloadNewUpdate": "Sunt disponibile backend-uri mai noi!", + "backendDownloadNewUpdateAction": "Accesați pagina dezvoltatorilor", + "backendDownloadChannel.label": "Canal de descărcare a pachetelor de extensii LM Studio", + "backendDownloadChannel.value.stable": "Stabil", + "backendDownloadChannel.value.beta": "Beta", + "backendDownloadChannel.value.latest": "Dezvoltare", + "backendDownloadChannel.shortLabel": "Canal de descărcare a runtime-ului", + "backendDownloadChannel.hint": "Alegeți canalul de la care să descărcați pachetele de extensii LM Studio. \"{{stableName}}\" este canalul recomandat pentru majoritatea utilizatorilor.", + "appUpdateChannel.label": "Canal de actualizare LM Studio", + "appUpdateChannel.value.stable": "Stabil", + "appUpdateChannel.value.beta": "Beta", + "appUpdateChannel.shortLabel": "Canal de actualizare al aplicației", + "appUpdateChannel.hint": "Alegeți canalul de la care să primiți actualizările aplicației LM Studio. \"{{stableName}}\" este canalul recomandat pentru majoritatea utilizatorilor.", + "modelLoadingGuardrails.label": "Limite de protecție pentru încărcarea modelului", + "modelLoadingGuardrails.description": "Încărcarea modelelor peste limitele de resurse ale sistemului poate cauza instabilitate sau blocarea sistemului. Măsurile de protecție previn supraîncărcarea accidentală. Ajustați aceste limite aici, dacă este necesar, dar fiți conștienți că încărcarea modelelor aproape de limita sistemului poate reduce stabilitatea.", + "modelLoadingGuardrails.value.off": "Oprit (Nu este recomandat)", + "modelLoadingGuardrails.value.off/subTitle": "Fără măsuri de precauție împotriva supraîncărcării sistemului", + "modelLoadingGuardrails.value.off/detail": "Detalii oprit", + "modelLoadingGuardrails.value.low": "Relaxat", + "modelLoadingGuardrails.value.low/subTitle": "Precauții ușoare împotriva supraîncărcării sistemului", + "modelLoadingGuardrails.value.low/detail": "Detalii relaxate", + "modelLoadingGuardrails.value.medium": "Echilibrat", + "modelLoadingGuardrails.value.medium/subTitle": "Precauții moderate împotriva supraîncărcării sistemului", + "modelLoadingGuardrails.value.medium/detail": "Detalii echilibrate", + "modelLoadingGuardrails.value.high": "Strict", + "modelLoadingGuardrails.value.high/subTitle": "Precauții puternice împotriva supraîncărcării sistemului", + "modelLoadingGuardrails.value.high/detail": "Detalii stricte", + "modelLoadingGuardrails.value.custom": "Personalizat", + "modelLoadingGuardrails.value.custom/subTitle": "Setați propria limită pentru dimensiunea maximă a modelului care poate fi încărcat", + "modelLoadingGuardrails.value.custom/detail": "Detalii personalizate", + "modelLoadingGuardrails.custom.label": "Limită de memorie: ", + "modelLoadingGuardrails.custom.unitGB": "GB", + "modelLoadingGuardrails.custom.description": "Setați o limită personalizată de memorie pentru încărcarea modelului. Modelele nu se vor încărca dacă încărcarea lor ar depăși această limită.", + "experimentalLoadPresets": "Activează suportul pentru configurarea încărcării modelului în presetări", + "experimentalLoadPresets.description": "Permite presetărilor să includă configurări de încărcare a modelului. Această funcție este experimentală și așteptăm feedback.", + "promptWhenCommittingUnsavedChangesWithNewFields": "Presetări: Afișează dialog de confirmare când se adaugă câmpuri noi în presetare", + "promptWhenCommittingUnsavedChangesWithNewFields.description": "Acest lucru este util dacă doriți să preveniți adăugarea accidentală a unor câmpuri noi în presetări", + "autoStartOnLogin": "Pornește serviciul LLM la autentificare", + "autoStartOnLogin.description": "Pornește automat serviciul LLM când vă autentificați la computer", + "expandConfigsOnClick": "Extinde configurările la clic, nu la hover", + "migrateChats": { + "label": "Migrează chat-urile dinainte de versiunea 0.3.0", + "hasBetterLabel": "Re-migrează chat-urile dinainte de versiunea 0.3.0", + "action_one": "Migrează 1 chat", + "action_other": "Migrează {{count}} chat-uri", + "inProgress": "Se migrează chat-urile...", + "hint": { + "primary": "Am reconfigurat structura internă de date pentru chat-urile v0.3.0+ pentru a suporta funcții precum mesajele de chat în mai multe versiuni. Pentru ca chat-urile mai vechi să apară în aplicație, ele trebuie migrate la noul format.", + "details": "Procesul de migrare nu va șterge chat-urile vechi, ci va crea o copie a acestora în noul format. ", + "footer": "Încă puteți accesa chat-urile vechi prin versiunile anterioare ale LM Studio. În prezent, imaginile nu vor fi migrate automat." + }, + "hasBetterHint": { + "primary": "Am îmbunătățit migratorul de chat-uri de când ați migrat chat-urile vechi. Doriți să îl rulați din nou?", + "details": "Procesul de migrare va crea un folder nou pentru a conține chat-urile nou migrate. Chat-urile vechi vor rămâne neatinse.", + "footer": "Încă puteți accesa chat-urile vechi prin versiunile anterioare ale LM Studio. În prezent, imaginile nu vor fi migrate automat." + }, + "success": "Chat-urile au fost migrate cu succes!", + "success_one": "Chat-ul a fost migrat cu succes", + "success_other": "Chat-urile au fost migrate cu succes: {{count}}", + "showInstructionsButton": "Afișează instrucțiunile", + "footerCardText": "Chat-urile din versiunile anterioare ale LM Studio trebuie migrate pentru a putea fi utilizate în această versiune.", + "hasBetterFooterCardText": "Am îmbunătățit migratorul de chat-uri de când ați migrat chat-urile vechi. Puteți rula din nou procesul de migrare. (Vom crea un folder nou pentru a conține chat-urile nou migrate.)", + "dismissConfirm": "Respinge", + "dismissConfirmDescription": "Puteți gestiona migrarea chat-urilor în Setări oricând" + } +} diff --git a/ro/shared.json b/ro/shared.json new file mode 100644 index 0000000..440f551 --- /dev/null +++ b/ro/shared.json @@ -0,0 +1,4 @@ +{ + "copyLmStudioLinkButton/toolTip": "Copiază link-ul de descărcare al modelului", + "filter.noMatches": "Nici o potrivire" +} diff --git a/ro/sidebar.json b/ro/sidebar.json new file mode 100644 index 0000000..05d2cd5 --- /dev/null +++ b/ro/sidebar.json @@ -0,0 +1,9 @@ +{ + "chat": "Chat", + "discover": "Descoperă", + "myModels": "Modelele mele", + "developer": "Dezvoltator", + "runtimes": "Runtime-uri", + "settings": "Setări", + "download": "Descărcări" +}