diff --git a/src/i18n/content/es/docs/alerts/incident-management/response-intelligence-ai.mdx b/src/i18n/content/es/docs/alerts/incident-management/response-intelligence-ai.mdx new file mode 100644 index 00000000000..212d0b22e3e --- /dev/null +++ b/src/i18n/content/es/docs/alerts/incident-management/response-intelligence-ai.mdx @@ -0,0 +1,63 @@ +--- +title: Inteligencia de respuesta con New Relic AI +metaDescription: Learn to reduce the mean time to resolve issues and incidents by using New Relic AI with response intelligence. +freshnessValidatedDate: never +translationType: machine +--- + + + Todavía estamos trabajando en esta característica, ¡pero nos encantaría que la probaras! + + Si tiene preguntas o comentarios, o si necesita ayuda durante la vista previa del editor **Instrumentation** del agente .NET, envíe un correo electrónico a [dotnet-li-editor-beta@newrelic.com](mailto:dotnet-li-editor-beta@newrelic.com). + + Esta característica se proporciona actualmente como parte de un programa de vista previa de conformidad con nuestras [políticas de prelanzamiento](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy). + + +La página de problemas, ahora integrada con New Relic AI, ofrece tiempo real información valiosa para ayudar a reducir el tiempo medio de resolución (MTTR) de problemas e incidentes. Reúne los detalles clave de un incidente en una sola vista, lo que le permite comprender rápidamente el contexto de un problema sin tener que navegar por varias pantallas. + +A screenshot of the alerts issues
+  feed. + +La página de problemas impulsada por IA proporciona un resumen conciso que incluye la entidad afectada, la gravedad del problema, una explicación de la condición de alerta y detalles adicionales para ayudar con la depuración. Además, la página de problemas incluye una nueva pestaña de "descripción general" con tres widgets que abordan las preguntas más críticas que hacen los socorristas cuando enfrentan un problema. + +A screenshot of the alerts issues
+  feed. + +**¿Qué se ve afectado?**
Los primeros en responder deben evaluar el "radio de la explosión" para determinar la gravedad de un problema y decidir los próximos pasos. Este widget proporciona una descripción general de la entidad afectada junto con el impacto en el usuario final de la aplicación o servicio. + +**¿Qué pasó anteriormente?**
Muchos problemas de TI tienden a repetir. Saber si un problema ocurrió antes, por qué ocurrió y cómo se resolvió puede ahorrarle a los socorristas un tiempo valioso durante un incidente. Para respaldar esto, los clientes pueden usar el widget para vincular sus documentos retrospectivos o post mortem existentes. Al aprovechar la generación aumentada por recuperación (RAG), la plataforma New Relic AI indexará y almacenará esta información para referencia contextual futura. Una vez configurado, los socorristas verán un resumen de problemas pasados similares, junto con enlaces a los documentos retrospectivos para un análisis detallado. + +**¿Qué comprobar?**
Los primeros en responder a menudo necesitan orientación contextual sobre acciones inmediatas para mitigar un problema. Este widget proporciona pasos personalizados para ayudarlos a restaurar rápidamente los servicios a los niveles operativos normales. Además, la pestaña Causas potenciales identifica causas probables a través del análisis causal, cubriendo una variedad de posibles problemas de anomalía y rendimiento. Para obtener más información, consulte el análisis casual. + +## Análisis causal + +El motor de análisis causal identifica síntomas potenciales que podrían desencadenar un evento de alerta y sugiere acciones de mitigación inmediatas para abordarlos. + +Considere un escenario en el que una aplicación PHP encuentra una pérdida de memoria, lo que genera una falla en el rendimiento SLI y activa una alerta. Nuestro motor investiga mover desde el nivel de servicio a la aplicación APM y luego al contenedor de infraestructura para detectar el síntoma. + +¿Cómo funciona el motor? El motor de análisis causal emplea categorías de análisis distintas, como eventos de despliegue, límites de recursos de infraestructura y más. Cada categoría está diseñada para abordar diversas fuentes potenciales de anomalías y problemas de rendimiento. Estas categorías se centran en tipos de datos y métricas específicas, lo que permite un análisis preciso y una identificación más exacta de las relaciones causales. + +Por el momento, New Relic solo admite el análisis causal para entidades APM . + +A screenshot of the alerts issues
+  feed. + +### Acciones de mitigación y visualizaciones + +Para cada causa potencial identificada, el motor ofrece acciones de mitigación personalizadas que guían al usuario a través de los pasos necesarios para restaurar rápidamente los servicios y entidades a sus estados operativos normales. Reconocemos que muchos de nuestros clientes generalmente confían en NRQL para analizar consultas importantes, por lo tanto, proporcionamos imágenes relevantes junto con la consulta subyacente para cada causa. + +### Análisis generado New Relic AI + +En algunos escenarios, nuestro motor causal puede no identificar una causa impulsada por un algoritmo. Sin embargo, tenemos información valiosa que, al combinar con los LLM, puede ofrecerle pasos prácticos. Para acceder a esta capacidad, debes tener habilitada la autorización de New Relic AI . \ No newline at end of file diff --git a/src/i18n/content/es/docs/browser/browser-monitoring/browser-pro-features/browser-logs/get-started.mdx b/src/i18n/content/es/docs/browser/browser-monitoring/browser-pro-features/browser-logs/get-started.mdx new file mode 100644 index 00000000000..ea2d2520af4 --- /dev/null +++ b/src/i18n/content/es/docs/browser/browser-monitoring/browser-pro-features/browser-logs/get-started.mdx @@ -0,0 +1,186 @@ +--- +title: Empezando +metaDescription: 'Learn how to enable and manage Browser Logs in New Relic, including steps for automatic log collection and how to disable the feature.' +freshnessValidatedDate: never +translationType: machine +--- + +## Detectar automáticamente los logs de browser [#automatic-log] + +El logging automático recopila mensajes de log emitidos desde el browser `console` para ayudarlo a maximizar la observabilidad de su aplicación frontend. + +Los logs Browser se rastrean de forma predeterminada en el nivel `WARN` para el agente Pro y Pro+SPA, pero no están disponibles para el agente del browser Lite . Le recomendamos que primero confirme que está empleando `Pro or Pro+SPA agent`. + +### Cómo funciona el logging automático del browser + +En función de los niveles de logging y las frecuencias de ejemplificación establecido en la configuración, la instrumentación automática de logs browser intentará recopilar mensajes de los siguientes métodos: + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Método + + Nivel +
+ console.log + + `INFO` +
+ console.error + + `ERROR` +
+ console.warn + + `WARN` +
+ console.info + + `INFO` +
+ console.debug + + `DEBUG` +
+ console.trace + + `TRACE` +
+ +De forma predeterminada, los datos de logging se almacenan durante 30 días, pero la retención real de los datos depende de su cuenta. + +## Requisitos previos + +* Un agente del browser **Pro** o **Pro + SPA** + + + La detección automática de logs no está disponible para el agente Lite del browser. + + +## Habilitar la recopilación automática de logs (para aplicaciones Browser existentes) [#enable-automatic-log] + +Mejore la observabilidad y las capacidades de depuración de su aplicación siguiendo estas sencillas instrucciones de configuración. + + + + Vaya a **[one.newrelic.com](https://one.newrelic.com) > All Capabilities > Browser**. + + + + Seleccione la aplicación de su browser . + + + + En el menú de la izquierda, haga clic en **Application settings**. + + + + Cerciorar de que esté seleccionado el agente del browser **Pro** o **Pro + SPA** . + + + + Cambie **Browser Logs** a **ON**. + + + + Cambie el nivel de verbosidad requerido a **ON**, puede elegir entre: + + * **Error** + * **Advertir** + * **Información** + * **Depurar** + * **Traza** + + + Los datos que pasan a través de los métodos de consola pueden pasar por serialización y [ofuscación](/docs/browser/new-relic-browser/configuration/obfuscate-browser-agent-data). Dependiendo del tamaño y la frecuencia, esto puede afectar negativamente el rendimiento de la aplicación, así como los costos de datos. En general, NO se recomienda pasar objetos grandes o grandes cantidades de datos a los métodos de consola. + + + + + Edite la frecuencia de ejemplificación para especificar el porcentaje de sesiones de usuario para las que se recopilarán logs. Puede introducir un valor entre 0 y 100. + + + * La ejemplificación de logs se coordina con otras decisiones de ejemplificación para maximizar la recopilación de datos para la misma sesión. Por ejemplo, si establece la frecuencia de ejemplificación de logs al 5% y la frecuencia de ejemplificación Session Replay (SR) al 10%, entonces: + + * Aproximadamente el 5% de sus sesiones tendrán Logs y SR recopilados. + * Aproximadamente el 5% de sus sesiones solo tendrán datos SR recopilados. + * Las sesiones restantes no tendrán ninguna de las dos cosas. + + * Para cualquier nueva aplicación de browser que cree, la recopilación automática de registros está habilitada de forma predeterminada con un nivel de detalle de advertencia y una frecuencia de ejemplificación del 100%. + + + + +screenshot of the session replay page in browser + +## Deshabilitar los logs del browser [#disable-browser-logs] + +Para deshabilitar los logs del browser para una aplicación de browser existente: + + + + Vaya a **[one.newrelic.com](https://one.newrelic.com) > All Capabilities > Browser**. + + + + Seleccione la aplicación de su browser . + + + + En el menú de la izquierda, haga clic en **Application settings**. + + + + Cambie**Browser Logs** a **OFF**. + + + +## Consumo de datos + +Los logs siguen el mismo precio de consumo que los demás bytes de su browser . La cantidad de bytes producidos depende del número y la longitud de los mensajes. + +La función de logging automático elimina la necesidad de llamar a `newrelic.log` la `newrelic.wrapLogger` browser API o, excepto cuando se agrega un atributo personalizado al evento de registro. \ No newline at end of file diff --git a/src/i18n/content/es/docs/logs/logs-context/aws-logs-in-context.mdx b/src/i18n/content/es/docs/logs/logs-context/aws-logs-in-context.mdx new file mode 100644 index 00000000000..115489988da --- /dev/null +++ b/src/i18n/content/es/docs/logs/logs-context/aws-logs-in-context.mdx @@ -0,0 +1,222 @@ +--- +title: Logs de AWS en contexto +tags: + - Logs + - Enable log management in New Relic + - Configure logs in context + - AWS + - CloudWatch + - S3 + - Lambda + - RDS + - ALB + - NLB + - Load Balancer + - CloudFront + - SQS + - EC2 +metaDescription: 'New Relic logs in context displays your logs in assorted New Relic experiences, helping you more easily correlate and troubleshoot issues.' +freshnessValidatedDate: never +translationType: machine +--- + +New Relic Logs ofrece a los usuarios AWS una solución de administración de logs completa e integrada que mejora tanto la eficiencia de la resolución de problemas como la observabilidad del sistema dentro de los entornos AWS . New Relic AWS Logs in Context de correlaciona sin problemas los logs de varios servicios de AWS con su métrica, lo que desbloquea la capacidad de identificar y resolver problemas rápidamente de forma inmediata. AWS Logs in Context permite a los equipos de desarrollo y operaciones minimizar el tiempo de inactividad del sistema y garantizar la confiabilidad. Las capacidades avanzadas de búsqueda y filtrado de la plataforma New Relic , junto con el análisis de logs en tiempo real, brindan información valiosa y profunda sobre el rendimiento y el uso de los servicios de AWS, lo que ayuda a impulsar la eficiencia de los costos. Con New Relic Logs, los usuarios AWS obtienen información valiosa y poderosa y procesos optimizados, lo que respalda una gestión más efectiva e informada de sus recursos cloud . + +## ¿Cómo funciona AWS Logs in Context? + +La característica AWS Logs in Context está diseñada para mejorar la gestión de logs al proporcionar un vínculo perfecto entre los logs y sus recursos AWS correspondientes (entidad). Los logs se enriquecen con metadatos necesarios para vincularlos a su recurso de AWS correspondiente. El enriquecimiento agregado permite: + +* **Creación y asociación automática de entidades**: cada registro informado desde los servicios de AWS se asocia automáticamente con el recurso (o entidad) AWS específico que lo generó. Si la entidad aún no existe, el sistema la crea automáticamente. +* **Navegación bidireccional perfecta entre la entidad y los logs**: los logs enriquecidos con la información contextual requerida permiten al usuario emplear el explorador de entidades para buscar recursos específicos AWS que le interesen y navegar rápidamente entre los logs y la entidad que los generó. + +## Requisitos previos + +Los logs en contexto de AWS se habilitan **automáticamente** cuando se emplea New Relic [AWS el reenvío de logs de integración](https://docs.newrelic.com/install/aws-logs/?service=aws_services) de . No se requiere [configuración adicional](#configuring-aws-logs-in-context) para la mayoría de los recursos de AWS. + +## Configuración de logs de AWS en contexto [#configuring-aws-logs-in-context] + +La función logs en contexto de AWS funciona de forma inmediata para la mayoría de los servicios de AWS. Sin embargo, para algunos servicios, será necesario realizar algunas adaptaciones en la configuración de sus recursos de AWS. Las siguientes secciones describen si se requiere alguna personalización de la configuración para cada tipo de recurso de AWS compatible. + + + + AWS Logs in Context funciona de manera inmediata para [los logs de acceso](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/enable-access-logging.html) de ALB y [los logs de conexión](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/enable-connection-logging.html) enviados a un bucket S3. + + + + AWS Logs in Context funciona de manera inmediata para [los logs de acceso](https://docs.aws.amazon.com/elasticloadbalancing/latest/classic/enable-access-logs.html) de ELB enviados a un bucket S3. + + + + AWS Logs in Context actualmente admite [logs de acceso](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/AccessLogs.html) de CloudFront entregados a un depósito S3 mediante el método de entrega [Amazon S3 (heredado)](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/standard-logging-legacy-s3.html) y logs de firewall de aplicaciones sitio web (WAF) entregados a un grupo de logs de CloudWatch + + Cuando configure su destino de registro estándar de CloudFront, seleccione el tipo "Amazon S3 (heredado)" en la opción "Entregar a" y **configure la opción de prefijo de registro en** `CLOUDFRONT_ACCESS_LOGS`: + + Screenshot of the CloudFront logging configuration, which highlights the 'Deliver to' option set to 'Amazon S3 (Legacy)' and the 'Log prefix' option set to 'CLOUDFRONT_ACCESS_LOGS' + + CloudFront permite la recopilación de logs del firewall de aplicaciones sitio web (WAF) a través de CloudWatch. Simplemente habilite el firewall de la aplicación sitio web en la pestaña "Seguridad" de su distribución de CloudFront y haga clic en el botón "Habilitar logs de AWS WAF". Sin embargo, sin importar en qué región AWS se implemente su distribución de CloudFront, sus logs WAF se recopilan en CloudWatch en `us-east-1` (N. Virginia) en un grupo de logs llamado `aws-waf-logs-CloudFrontDistribution-YOUR_DISTRIBUTION_NAME`. Para enviar estos logs **, también deberá implementar nuestra [integración de reenvío de logs AWS ](https://docs.newrelic.com/install/aws-logs/?service=aws_services)en la región `us-east-1` **y crear un filtro de subscripción correspondiente a partir de ese grupo de logs. + + + + AWS Logs in Context funciona de manera inmediata para [los logs transmitidos](https://docs.aws.amazon.com/elasticbeanstalk/latest/dg/using-features.logging.html#health-logs-cloudwatchlogs) de instancias EC2 de Elastic Beanstalk y [los logs rotados](https://docs.aws.amazon.com/elasticbeanstalk/latest/dg/using-features.logging.html#health-logs-s3location) enviados a CloudWatch y S3, respectivamente. + + + + AWS Logs in Context funciona de manera inmediata para los Lambda logs de funciones enviados al [grupo de logs predeterminado](https://docs.aws.amazon.com/lambda/latest/dg/monitoring-cloudwatchlogs-advanced.html#monitoring-cloudwatchlogs-loggroups) de CloudWatch o enviados directamente a New Relic mediante [la extensión de New Relic Layers. Lambda](/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/introduction-lambda/) + + + + AWS Logs in Context funciona de manera inmediata para [los logs de acceso](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/enable-access-logs.html) NLB enviados a un bucket S3. + + + + AWS Logs in Context funciona de inmediato para [los logs de instancias](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_LogAccess.html) de RDS enviados a CloudWatch. + + + + AWS Logs in Context admite [logs de acceso al servidor](https://docs.aws.amazon.com/AmazonS3/latest/userguide/ServerLogs.html) S3 enviados a un bucket S3. + + Al configurar la configuración de log de acceso al servidor S3, debe configurar el campo "Destino" de modo que el campo "Prefijo de destino" se convierta en `S3_ACCESS_LOGS/` (con barra diagonal final) y seleccionar el [formato de clave de objeto de log particionado basado en fecha](https://docs.aws.amazon.com/AmazonS3/latest/userguide/ServerLogs.html#server-log-keyname-format), como en la siguiente captura de pantalla: + + Screenshot of the S3 server access logging configuration, which highlights the 'Destination' field set to 'S3_ACCESS_LOGS/' and the 'Log object key format' set to 'Date-based partitioned log object key format' + + + + AWS Logs in Context funciona de manera inmediata para [la administración de SQS y los eventos de datos](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/logging-using-cloudtrail.html) (relacionados con una cola de SQS en individua) entregados a través de CloudTrail a CloudWatch o a un depósito S3. + + + +## Logs de contexto de AWS en enriquecimiento + +La función AWS Logs in Context enriquece automáticamente sus logs con atributos que permiten correlacionarlos con la entidad creada en New Relic. Estos atributos varían según los servicios de AWS que generaron los logs y se detallan en las siguientes secciones. + + + + | Nombre del atributo | Descripción | + | ---------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | + | `aws.Arn` | El nombre de recurso de Amazon (ARN) del recurso de AWS. | + | `entity.guid` | El identificador único de la entidad emisora. | + | `entity.name` | El nombre de la entidad emisora, tal como se muestra en las vistas del Explorador de entidades o del Catálogo. | + | `entity.type` | El tipo de entidad, tal como se describe en nuestras [definiciones de entidad](https://github.com/newrelic/entity-definitions), como `AWSALB`, `AWSS3BUCKET`, etc. | + | `entityId` | Solo se agrega si recopila logs junto con métrica mediante el [sondeo de API de integración de AWS ](/docs/infrastructure/amazon-integrations/connect/set-up-aws-api-polling/). Nos permite correlacionar su log con la entidad creada por esta integración. | + | `aws.alb.loadBalancer` | El nombre de la aplicación Load Balancer. | + + + + | Nombre del atributo | Descripción | + | ---------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | + | `aws.Arn` | El nombre de recurso de Amazon (ARN) del recurso de AWS. | + | `entity.guid` | El identificador único de la entidad emisora. | + | `entity.name` | El nombre de la entidad emisora, tal como se muestra en las vistas del Explorador de entidades o del Catálogo. | + | `entity.type` | El tipo de entidad, tal como se describe en nuestras [definiciones de entidad](https://github.com/newrelic/entity-definitions), como `AWSALB`, `AWSS3BUCKET`, etc. | + | `entityId` | Solo se agrega si recopila logs junto con métrica mediante el [sondeo de API de integración de AWS ](/docs/infrastructure/amazon-integrations/connect/set-up-aws-api-polling/). Nos permite correlacionar su log con la entidad creada por esta integración. | + | `aws.elb.loadBalancer` | El nombre del balanceador de carga tradicional. | + + + + | Nombre del atributo | Descripción | + | ------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | + | `aws.Arn` | El nombre de recurso de Amazon (ARN) del recurso de AWS. | + | `entity.guid` | El identificador único de la entidad emisora. | + | `entity.name` | El nombre de la entidad emisora, tal como se muestra en las vistas del Explorador de entidades o del Catálogo. | + | `entity.type` | El tipo de entidad, tal como se describe en nuestras [definiciones de entidad](https://github.com/newrelic/entity-definitions), como `AWSALB`, `AWSS3BUCKET`, etc. | + | `entityId` | Solo se agrega si recopila logs junto con métrica mediante el [sondeo de API de integración de AWS ](/docs/infrastructure/amazon-integrations/connect/set-up-aws-api-polling/). Nos permite correlacionar su log con la entidad creada por esta integración. | + | `aws.cloudfront.DistributionId` | El identificador de la distribución de Cloudfront. | + + + + | Nombre del atributo | Descripción | + | -------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | + | `aws.Arn` | El nombre de recurso de Amazon (ARN) del recurso de AWS. | + | `entity.guid` | El identificador único de la entidad emisora. | + | `entity.name` | El nombre de la entidad emisora, tal como se muestra en las vistas del Explorador de entidades o del Catálogo. | + | `entity.type` | El tipo de entidad, tal como se describe en nuestras [definiciones de entidad](https://github.com/newrelic/entity-definitions), como `AWSALB`, `AWSS3BUCKET`, etc. | + | `entityId` | Solo se agrega si recopila logs junto con métrica mediante el [sondeo de API de integración de AWS ](/docs/infrastructure/amazon-integrations/connect/set-up-aws-api-polling/). Nos permite correlacionar su log con la entidad creada por esta integración. | + | `aws.ec2.InstanceId` | El identificador de las instancias EC2. | + + + + Los logs enviados a CloudWatch se enriquecerán con el siguiente atributo: + + | Nombre del atributo | Descripción | + | ------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | + | `aws.Arn` | El nombre de recurso de Amazon (ARN) del recurso de AWS. | + | `entity.guid` | El identificador único de la entidad emisora. | + | `entity.name` | El nombre de la entidad emisora, tal como se muestra en las vistas del Explorador de entidades o del Catálogo. | + | `entity.type` | El tipo de entidad, tal como se describe en nuestras [definiciones de entidad](https://github.com/newrelic/entity-definitions), como `AWSALB`, `AWSS3BUCKET`, etc. | + | `entityId` | Solo se agrega si recopila logs junto con métrica mediante el [sondeo de API de integración de AWS ](/docs/infrastructure/amazon-integrations/connect/set-up-aws-api-polling/). Nos permite correlacionar su log con la entidad creada por esta integración. | + | `aws.lambda.FunctionName` | El nombre de la función Lambda. | + + Los logs enviados directamente a New Relic mediante la [extensión deNew Relic LayersLambda ](/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/introduction-lambda/)se enriquecerán con el siguiente atributo: + + | Nombre del atributo | Descripción | + | ------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | + | `entity.guid` | El identificador único de la entidad emisora. | + | `entity.name` | El nombre de la entidad emisora, tal como se muestra en las vistas del Explorador de entidades o del Catálogo. | + | `entity.type` | El tipo de entidad, tal como se describe en nuestras [definiciones de entidad](https://github.com/newrelic/entity-definitions), como `AWSALB`, `AWSS3BUCKET`, etc. | + | `entityId` | Solo se agrega si recopila logs junto con métrica mediante el [sondeo de API de integración de AWS ](/docs/infrastructure/amazon-integrations/connect/set-up-aws-api-polling/). Nos permite correlacionar su log con la entidad creada por esta integración. | + + + + | Nombre del atributo | Descripción | + | ---------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | + | `aws.Arn` | El nombre de recurso de Amazon (ARN) del recurso de AWS. | + | `entity.guid` | El identificador único de la entidad emisora. | + | `entity.name` | El nombre de la entidad emisora, tal como se muestra en las vistas del Explorador de entidades o del Catálogo. | + | `entity.type` | El tipo de entidad, tal como se describe en nuestras [definiciones de entidad](https://github.com/newrelic/entity-definitions), como `AWSALB`, `AWSS3BUCKET`, etc. | + | `entityId` | Solo se agrega si recopila logs junto con métrica mediante el [sondeo de API de integración de AWS ](/docs/infrastructure/amazon-integrations/connect/set-up-aws-api-polling/). Nos permite correlacionar su log con la entidad creada por esta integración. | + | `aws.nlb.loadBalancer` | El nombre del balanceador de carga de red. | + + + + | Nombre del atributo | Descripción | + | ------------------------------ | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | + | `aws.Arn` | El nombre de recurso de Amazon (ARN) del recurso de AWS. | + | `entity.guid` | El identificador único de la entidad emisora. | + | `entity.name` | El nombre de la entidad emisora, tal como se muestra en las vistas del Explorador de entidades o del Catálogo. | + | `entity.type` | El tipo de entidad, tal como se describe en nuestras [definiciones de entidad](https://github.com/newrelic/entity-definitions), como `AWSALB`, `AWSS3BUCKET`, etc. | + | `entityId` | Solo se agrega si recopila logs junto con métrica mediante el [sondeo de API de integración de AWS ](/docs/infrastructure/amazon-integrations/connect/set-up-aws-api-polling/). Nos permite correlacionar su log con la entidad creada por esta integración. | + | `aws.rds.DBInstanceIdentifier` | El identificador (nombre) de la instancia de base de datos RDS. | + + + + | Nombre del atributo | Descripción | + | ------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | + | `aws.Arn` | El nombre de recurso de Amazon (ARN) del recurso de AWS. | + | `entity.guid` | El identificador único de la entidad emisora. | + | `entity.name` | El nombre de la entidad emisora, tal como se muestra en las vistas del Explorador de entidades o del Catálogo. | + | `entity.type` | El tipo de entidad, tal como se describe en nuestras [definiciones de entidad](https://github.com/newrelic/entity-definitions), como `AWSALB`, `AWSS3BUCKET`, etc. | + | `entityId` | Solo se agrega si recopila logs junto con métrica mediante el [sondeo de API de integración de AWS ](/docs/infrastructure/amazon-integrations/connect/set-up-aws-api-polling/). Nos permite correlacionar su log con la entidad creada por esta integración. | + | `aws.s3.BucketName` | El nombre del depósito S3. | + + + + | Nombre del atributo | Descripción | + | ------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | + | `aws.Arn` | El nombre de recurso de Amazon (ARN) del recurso de AWS. | + | `entity.guid` | El identificador único de la entidad emisora. | + | `entity.name` | El nombre de la entidad emisora, tal como se muestra en las vistas del Explorador de entidades o del Catálogo. | + | `entity.type` | El tipo de entidad, tal como se describe en nuestras [definiciones de entidad](https://github.com/newrelic/entity-definitions), como `AWSALB`, `AWSS3BUCKET`, etc. | + | `entityId` | Solo se agrega si recopila logs junto con métrica mediante el [sondeo de API de integración de AWS ](/docs/infrastructure/amazon-integrations/connect/set-up-aws-api-polling/). Nos permite correlacionar su log con la entidad creada por esta integración. | + | `aws.sqs.QueueName` | El nombre de la cola SQS. | + | `aws.sqs.queueUrl` | La URL de la cola SQS. | + + + +## Solucionar problemas + + + + La función logs en contexto AWS solo funcionará cuando se emplee el nombre de grupo de logs de CloudWatch predeterminado o los nombres de depósito de S3 configurados por cada servicio de AWS. Aunque algunos servicios permiten personalizar estos valores (por ejemplo, [Lambda](https://docs.aws.amazon.com/lambda/latest/dg/monitoring-cloudwatchlogs-advanced.html#monitoring-cloudwatchlogs-loggroups)), hacerlo provocará que los logs no se anexen correctamente a una entidad y que se creen entidades potencialmente incorrectas. A menos que se indique en [esta sección](#configuring-aws-logs-in-context), recomendamos encarecidamente emplear los valores de configuración predeterminados. + + + + + +## ¿Que sigue? [#what-next] + +Luego de configurar AWS Logs in Context para sus AWS recursos , aproveche al máximo sus datos de log en la New Relic UI: + +* Explore los datos de log en su plataforma con nuestra [UI de log](/docs/logs/log-management/ui-data/use-logs-ui). +* Busque la entidad asociada a su recurso AWS a través del [explorador de entidades](https://docs.newrelic.com/docs/new-relic-solutions/new-relic-one/core-concepts/new-relic-explorer-view-performance-across-apps-services-hosts/#find) y navegue rápidamente a sus logs seleccionando su pestaña "logs". +* Configurar [alerta](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-alert-conditions/). +* [Consulta tus datos](/docs/query-your-data/explore-query-data/get-started/introduction-querying-new-relic-data/) y [crea un dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/). \ No newline at end of file diff --git a/src/i18n/content/es/docs/query-your-data/explore-query-data/dashboards/dashboards-charts-import-export-data.mdx b/src/i18n/content/es/docs/query-your-data/explore-query-data/dashboards/dashboards-charts-import-export-data.mdx index 988f93abbc0..992541db54c 100644 --- a/src/i18n/content/es/docs/query-your-data/explore-query-data/dashboards/dashboards-charts-import-export-data.mdx +++ b/src/i18n/content/es/docs/query-your-data/explore-query-data/dashboards/dashboards-charts-import-export-data.mdx @@ -1,5 +1,5 @@ --- -title: 'Importe, exporte, agregue y comparta paneles y gráficos' +title: 'Importar, exportar y agregar dashboards y gráficos' tags: - Query your data - Explore and query data @@ -10,7 +10,7 @@ freshnessValidatedDate: '2024-02-07T00:00:00.000Z' translationType: machine --- -Puede emplear [el panel](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/) para visualizar y realizar un seguimiento del estado de su sistema, abordar problemas y planear pasos adicionales. Aprenda a compartir toda esa información con su equipo, clientes u otras partes interesadas con varias opciones de importación y exportación. +Puede emplear [el dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/) para visualizar y realizar un seguimiento del estado de su sistema, abordar problemas y planear pasos adicionales. Aprenda a compartir toda esa información con su equipo, clientes u otras partes interesadas con varias opciones de importación y exportación. ## Importar un dashboard como JSON [#import-json] @@ -42,8 +42,6 @@ Para exportar su dashboard como un archivo PDF, en la esquina superior derecha d Vaya a **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards** y abra un dashboard existente. -### Exportar un dashboard como limitaciones de PDF [#export-pdf-limitations] - Tenga en cuenta lo siguiente al exportar un dashboard como PDF: * No se admiten [variables de plantilla](/docs/query-your-data/explore-query-data/dashboards/dashboard-template-variables/#requirements). @@ -62,7 +60,7 @@ Para exportar el gráfico de tabla de dashboard como un archivo CSV, en la esqui Screenshot of how to export a table chart as a CSV file -Si bien es poderoso, exportar como CSV tiene limitaciones. Un par de cosas a tener en cuenta: +Tenga en cuenta lo siguiente al exportar un gráfico como CSV: * Los datos siempre se exportan en hora UTC * Exportar no admite funciones de agregador como `average()` @@ -70,15 +68,6 @@ Si bien es poderoso, exportar como CSV tiene limitaciones. Un par de cosas a ten * En algunos escenarios, la UI puede realizar un formateo adicional de los datos que no se replican en el CSV exportado, lo que puede generar pequeñas discrepancias (como -1.1E-17 se representa como 0 en la UI pero no en el CSV). * No es posible exportar los resultados de una consulta entre cuentas. -## Comparte un dashboard con tu equipo [#share-dashboards] - -Desde cualquier dashboard, compártelo con una de estas opciones: - -* Copie el vínculo permanente del dashboard haciendo clic en el ícono de enlace en la parte superior derecha del dashboard. vínculo permanente comparte un enlace directo al dashboard. -* Copie su dashboard **as JSON** y agréguelo al portapapeles haciendo clic en el botón **...** en la parte superior derecha y seleccionando **Copy JSON to clipboard**. - -También puedes [duplicar tu dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/#dashboards-clone). - ## Consulta y explora gráficos [#explore-chart-data] Para obtener detalles sobre lo que puede hacer con los gráficos, consulte [Opciones de consultas y gráficos](/docs/new-relic-solutions/new-relic-one/ui-data/basic-ui-features/#data-analysis). \ No newline at end of file diff --git a/src/i18n/content/es/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards.mdx b/src/i18n/content/es/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards.mdx index 2586e82a420..62f1d8ff774 100644 --- a/src/i18n/content/es/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards.mdx +++ b/src/i18n/content/es/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards.mdx @@ -1,5 +1,5 @@ --- -title: Cree visualizaciones de datos personalizadas con el panel +title: Cree visualizaciones de datos personalizadas con el dashboard tags: - Query your data - Explore and query data @@ -13,32 +13,29 @@ A través de nuestra UI , puede crear y compartir gráficos y visualizaciones pe ## Por qué es importante [#dashboards-features] -Con nuestro panel puede personalizar y comprender los datos que recopila. Explore sus datos y correlacione fuentes conectadas con gráficos y conozca rápidamente el estado de su sistema y aplicación para una resolución de problemas más rápida y eficiente. +Con nuestro dashboard puede personalizar y comprender los datos que recopila. Explore sus datos y correlacione fuentes conectadas con gráficos y conozca rápidamente el estado de su sistema y aplicación para una resolución de problemas más rápida y eficiente. -Utilice el panel para: +Utilice el dashboard para: * Obtenga información valiosa con visualizaciones interactivas personalizadas de alta densidad con una UI coherente. * Grafica todos los eventos y atributos de todas partes de nuestra plataforma. Para obtener más información, consulte [Recopilación de datos](/docs/data-apis/understand-data/new-relic-data-types/). * [Agregue un atributo personalizado](/docs/data-apis/custom-data/custom-events/apm-report-custom-events-attributes/#steps) o [envíe tipos de eventos personalizados](/docs/data-apis/ingest-apis/event-api/introduction-event-api/#workflow) a la mayoría de los eventos para comprender mejor su negocio y ver detalles específicos sobre cómo sus clientes interactúan con su plataforma, como vistas de página, transacciones de host, etc. -* [Administre sus gráficos y panel](#get-started) fácilmente usando nuestros menús CRUD de acceso rápido y opciones de edición. +* [Administre sus gráficos y dashboard](#get-started) fácilmente usando nuestros menús CRUD de acceso rápido y opciones de edición. * Explore y contextualice datos con [información sobre herramientas avanzada y funciones de acercamiento](#key-visual-tools) para monitor lo que sus sistemas están haciendo en tiempo real. -* Busque en su panel de control atributos y métricas. -* [Informe datos personalizados](/docs/data-apis/custom-data/get-custom-data-from-any-source/) a New Relic y a su panel de control desde cualquier fuente. +* Busque en su dashboard atributos y métricas. +* [Informe datos personalizados](/docs/data-apis/custom-data/get-custom-data-from-any-source/) a New Relic y a su dashboard desde cualquier fuente. +* Comparta el dashboard con partes interesadas fuera de su organización New Relic a través de [URL dashboard en tiempo real de acceso público](/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-externally/#dashboard). -## Comience con el panel [#get-started] +## Comience con el dashboard [#get-started] Vaya a **[one.newrelic.com](https://one.newrelic.com/all-capabilities)** y haga clic en **Dashboards**. -En el índice del panel, puede ver todos los paneles y aplicaciones de datos asociados con su cuenta New Relic. También puede ver el [popular panel prediseñado](/docs/query-your-data/explore-query-data/dashboards/prebuilt-dashboards/). +En el índice del dashboard, puede ver todos los dashboards y aplicaciones de datos asociados con su cuenta New Relic. También puede ver el [popular dashboard prediseñado](/docs/query-your-data/explore-query-data/dashboards/prebuilt-dashboards/). -Dashboards index +Dashboards index
- Vaya a **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards** para abrir el índice dashboard . + Vaya a **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards** para abrir el índice dashboard .
Para cada dashboard, el índice muestra la siguiente información: @@ -53,98 +50,52 @@ Para cada dashboard, el índice muestra la siguiente información: Aquí podrás realizar las siguientes acciones: - + Sigue estos pasos: - 1. Seleccione el botón **+ Create a dashboard** ubicado en la esquina superior derecha del índice del panel. + 1. Seleccione el botón **+ Create a dashboard** ubicado en la esquina superior derecha del índice del dashboard. 2. Seleccione la opción **Create a new dashboard** . 3. Ponle un nombre a tu dashboard. [Los nombres se pueden buscar](#dashboards-search), por lo que recomendamos proporcionar un nombre significativo utilizando palabras que le ayuden a localizar su dashboard fácilmente. Por ejemplo, puede utilizar el nombre de su servicio o aplicación. - 4. Seleccione la cuenta a la que pertenece el dashboard . Elija con cuidado porque **this action can't be modified**. + 4. Seleccione la cuenta a la que pertenece el dashboard . Elija con cuidado porque **this action can't be modified**. - 5. Seleccione los permisos que desee para su dashboard. Los permisos [**Edit - everyone in account**](#dashboards-permissions) están seleccionados de forma predeterminada. Posteriormente, podrá cambiarlos desde el [menú de configuración](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard/#dash-settings) una vez que acceda al panel. + 5. Seleccione los permisos que desee para su dashboard. Los permisos [**Edit - everyone in account**](#dashboards-permissions) están seleccionados de forma predeterminada. Posteriormente, podrá cambiarlos desde el [menú de configuración](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard/#dash-settings) una vez que acceda al dashboard. 6. Presione **Create** para continuar o **Back** para regresar al índice. 7. Haga clic en el botón **+ Add widget** o haga clic dentro de uno de los cuadrantes para agregar un nuevo widget. Hay 2 opciones: - * - **Add a chart** - + * **Add a chart**, donde necesita utilizar el [generador de consultas](/docs/chart-builder/use-chart-builder/get-started/introduction-chart-builder). + * **Add text, images, or links**, donde agregará su widget usando nuestro [editor de rebajas](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard/#markdown). - , donde necesita utilizar el [generador de consultas](/docs/chart-builder/use-chart-builder/get-started/introduction-chart-builder). - - * - **Add text, images, or links** - - - , donde agregará su widget usando nuestro [editor de rebajas](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard/#markdown). - - Alternativamente, también puedes crear un nuevo dashboard: - - * Mediante - - - [**duplicating**](#dashboards-clone) - - - un dashboard existente. + Alternativamente, también puedes crear un nuevo dashboard: + * Mediante [**duplicating**](#dashboards-clone) un dashboard existente. * Desde cualquier gráfico: copie cualquier gráfico de cualquier dashboard a un dashboard nuevo o existente. + * Desde **[metrics and events](/docs/query-your-data/explore-query-data/browse-data/introduction-data-explorer/)** o [**query builder**](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder/): agregue cualquier gráfico que cree a partir de nuestra característica de consulta a un dashboard nuevo o existente. + * Desde [**explorer**](/docs/new-relic-solutions/new-relic-one/core-concepts/new-relic-explorer-view-performance-across-apps-services-hosts/): lleve cualquier vista personalizada desde el administrador de entidades al dashboard. - * Desde - - - **[metrics and events](/docs/query-your-data/explore-query-data/browse-data/introduction-data-explorer/)** - - - o - - - [**query builder**](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder/) - - - : agregue cualquier gráfico que cree a partir de nuestra característica de consulta a un dashboard nuevo o existente. - - * Desde - - - [**explorer**](/docs/new-relic-solutions/new-relic-one/core-concepts/new-relic-explorer-view-performance-across-apps-services-hosts/) - - - : lleve cualquier vista personalizada desde el administrador de entidades al panel de control. - - Para organizar paneles con varias páginas, consulte [Agregar páginas a un dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard/#add-pages-edit). + Para organizar dashboards con varias páginas, consulte [Agregar páginas a un dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard/#add-pages-edit). - - Haga clic en el icono del dashboard que desea duplicar y seleccione la opción **Duplicate dashboard**. + + Haga clic en el icono del dashboard que desea duplicar y seleccione la opción **Duplicate dashboard**. - Duplicate a dashboard + Duplicate a dashboard
- Vaya a **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards** para abrir el índice dashboard y seleccione la opción **Duplicate dashboard**. + Vaya a **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards** para abrir el índice dashboard y seleccione la opción **Duplicate dashboard**.
Sigue estos pasos: - 1. Ponle un nombre a tu dashboard. El dashboard duplicado recibe el mismo nombre que el dashboard original seguido de la palabra "copiar". Por ejemplo, si duplica un dashboard llamado `this is my dashboard`, el duplicado se creará como `this is my dashboard copy`. Puedes editar el nombre y cambiarlo. + 1. Ponle un nombre a tu dashboard. El dashboard duplicado recibe el mismo nombre que el dashboard original seguido de la palabra "copiar". Por ejemplo, si duplica un dashboard llamado `this is my dashboard`, el duplicado se creará como `this is my dashboard copy`. Puedes editar el nombre y cambiarlo. - 2. Seleccione la cuenta a la que pertenece el dashboard . Elija con cuidado porque **this action can't be modified**. + 2. Seleccione la cuenta a la que pertenece el dashboard . Elija con cuidado porque **this action can't be modified**. - 3. Seleccione los permisos que desee para su dashboard. Los permisos [**Edit - everyone in account**](#dashboards-permissions) están seleccionados de forma predeterminada. Posteriormente, podrá cambiarlos desde el [menú de configuración](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard/#dash-settings) una vez que acceda al panel. + 3. Seleccione los permisos que desee para su dashboard. Los permisos [**Edit - everyone in account**](#dashboards-permissions) están seleccionados de forma predeterminada. Posteriormente, podrá cambiarlos desde el [menú de configuración](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard/#dash-settings) una vez que acceda al dashboard. 4. Presione **Create** para continuar o **Cancel** para regresar al índice. @@ -155,139 +106,63 @@ Aquí podrás realizar las siguientes acciones:
- - Haga clic en el icono del dashboard que desea eliminar y seleccione la opción **Delete**. + + Haga clic en el icono del dashboard que desea eliminar y seleccione la opción **Delete**. Solo puede eliminar un dashboard si lo creó o si tiene permisos **Edit - everyone in account**. Para obtener más información, [consulte la información de permisos](#dashboards-permissions). También puede eliminar un dashboard desde el [menú de configuración](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard/#dash-settings) de un dashboard. - - Puede importar un dashboard como JSON cuando desee modificar un dashboard listo para usar a nivel de código. Por ejemplo, si desea crear un panel personalizado fusionando dos paneles existentes, puede modificar el JSON de un dashboard base y luego importarlo nuevamente a New Relic. + + Puede importar un dashboard como JSON cuando desee modificar un dashboard listo para usar a nivel de código. Por ejemplo, si desea crear un dashboard personalizado fusionando dos dashboards existentes, puede modificar el JSON de un dashboard base y luego importarlo nuevamente a New Relic. Para importar un dashboard como JSON: - 1. Vaya a - - - **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards** - - - . - - 2. Abra el JSON de un dashboard existente haciendo clic en - - - **...** - - - y luego seleccione - - - **Copy JSON** - - - . - - 3. Vuelva a la página - - - **Dashboards** - - - . - - 4. En la esquina superior derecha, haga clic en - - - **Import dashboard** - - - . - + 1. Vaya a **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**. + 2. Abra el JSON de un dashboard existente haciendo clic en **...** y luego seleccione **Copy JSON**. + 3. Vuelva a la página **Dashboards** . + 4. En la esquina superior derecha, haga clic en **Import dashboard**. 5. Pega tu código JSON. - 6. Elija la configuración de cuenta y permisos para el dashboard. No puede cambiar la cuenta una vez que la haya configurado, pero puede [cambiar los permisos](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard/#dash-settings) en cualquier momento. - - 7. Haga clic en - - - **Save** - - - . + 7. Haga clic en **Save**. - - Al hacer clic en el ícono de estrella al lado de un dashboard se activan o desactivan los favoritos. Al hacer clic en él, el icono se vuelve amarillo. Cuando marca un dashboard favorito, se agrupa con otros paneles favoritos en la parte superior de la lista. + + Al hacer clic en el ícono de estrella al lado de un dashboard se activan o desactivan los favoritos. Al hacer clic en él, el icono se vuelve amarillo. Cuando marca un dashboard favorito, se agrupa con otros dashboards favoritos en la parte superior de la lista. Para eliminar un dashboard de tus favoritos, selecciona el ícono de estrella nuevamente. - - Puede **search** panel por dashboard , etiqueta y autor del panel utilizando el cuadro de búsqueda encima del índice. + + Puede **search** dashboard por dashboard , etiqueta y autor del dashboard utilizando el cuadro de búsqueda encima del índice. - Searching dashboards + Searching dashboards - También puede **sort** el panel en el índice. De forma predeterminada, el panel que editó recientemente se encuentra en la parte superior del índice, tanto en la [sección de favoritos como en la de no favoritos](#dashboards-favorite). Para cambiar este orden, puede ordenar ambas secciones por cualquiera de las columnas del índice; su clasificación más reciente se mostrará la próxima vez que acceda a New Relic. + También puede **sort** el dashboard en el índice. De forma predeterminada, el dashboard que editó recientemente se encuentra en la parte superior del índice, tanto en la [sección de favoritos como en la de no favoritos](#dashboards-favorite). Para cambiar este orden, puede ordenar ambas secciones por cualquiera de las columnas del índice; su clasificación más reciente se mostrará la próxima vez que acceda a New Relic. - - Haga clic en el icono del dashboard donde desea ver sus metadatos y etiqueta y seleccione la opción **See metadata & tags**. + + Haga clic en el Icono del dashboard del cual desea ver sus metadatos y etiqueta y seleccione la opción **See metadata & tags**.
## Permisos dashboard [#dashboards-permissions] -El panel tiene tres tipos de permisos: - -* - **Edit - everyone in account** - - - : Todos los usuarios tienen plenos derechos sobre el dashboard. - -* - **Read-only - everyone in account** - - - : Todos los usuarios pueden ver el dashboard, pero solo usted tiene todos los derechos para trabajar con el dashboard. Otros usuarios pueden acceder al dashboard pero no pueden editarlo ni eliminarlo, aunque pueden duplicarlo. - -* - **Private** - +El dashboard tiene tres tipos de permisos: - : Sólo tú puedes ver el dashboard. Todo menos los metadatos está oculto. +* **Edit - everyone in account**: Todos los usuarios tienen plenos derechos sobre el dashboard. +* **Read-only - everyone in account**: Todos los usuarios pueden ver el dashboard, pero solo usted tiene todos los derechos para trabajar con el dashboard. Otros usuarios pueden acceder al dashboard pero no pueden editarlo ni eliminarlo, aunque pueden duplicarlo. +* **Private**: Sólo tú puedes ver el dashboard. Todo menos los metadatos está oculto. -Cuando [crea un dashboard](#dashboards-create-new) usando el botón **Create a dashboard** o [duplicando](#dashboards-clone) otro dashboard, tendrá derechos **Edit - everyone in account** de forma predeterminada. Posteriormente, podrá cambiarlos desde el [menú de configuración](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard/#dash-settings) una vez que acceda al panel. +Cuando [crea un dashboard](#dashboards-create-new) usando el botón **Create a dashboard** o [duplicando](#dashboards-clone) otro dashboard, tendrá derechos **Edit - everyone in account** de forma predeterminada. Posteriormente, podrá cambiarlos desde el [menú de configuración](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard/#dash-settings) una vez que acceda al dashboard. -## Cree y administre un panel a través de API [#nerdgraph] +## Cree y administre un dashboard a través de API [#nerdgraph] -Puede utilizar [nuestra API NerdGraph](/docs/apis/nerdgraph/examples/nerdgraph-dashboards) para crear y administrar el panel. Nuestra API le brinda acceso a más características que la UI: por ejemplo, puede crear un panel con datos de varias cuentas. +Puede utilizar [nuestra API NerdGraph](/docs/apis/nerdgraph/examples/nerdgraph-dashboards) para crear y administrar el dashboard. Nuestra API le brinda acceso a más características que la UI: por ejemplo, puede crear un dashboard con datos de varias cuentas. -También puedes [agregar una etiqueta con NerdGraph](/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data/#add-tags). Puede filtrar su panel mediante etiquetas, que pueden ser útiles para identificar usuarios, cuentas, ubicaciones y más. +También puedes [agregar una etiqueta con NerdGraph](/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data/#add-tags). Puede filtrar su dashboard mediante etiquetas, que pueden ser útiles para identificar usuarios, cuentas, ubicaciones y más. ¿Utiliza Datadog para monitor su infraestructura y desea probar las capacidades de monitoreo de New Relic de forma gratuita? [Consulte nuestra guía](/docs/tutorial-dd-migration/migrating-from-dd/) sobre cómo migrar desde Datadog para saber cómo hacerlo. - + \ No newline at end of file diff --git a/src/i18n/content/es/docs/query-your-data/explore-query-data/use-charts/use-your-charts.mdx b/src/i18n/content/es/docs/query-your-data/explore-query-data/use-charts/use-your-charts.mdx index 607fc8a1b95..261f6810ab1 100644 --- a/src/i18n/content/es/docs/query-your-data/explore-query-data/use-charts/use-your-charts.mdx +++ b/src/i18n/content/es/docs/query-your-data/explore-query-data/use-charts/use-your-charts.mdx @@ -79,7 +79,7 @@ Lea las secciones siguientes para obtener más información sobre la caracterís En gráficos de líneas y gráficos de áreas, puede ajustar el eje Y para mostrar los datos dentro de ciertos valores estableciendo un valor mínimo y máximo para el eje. - Si no se selecciona ninguna opción de personalización, [el panel](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) muestra automáticamente el eje Y completo desde 0 hasta el valor superior más un margen. + Si no se selecciona ninguna opción de personalización, [el dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) muestra automáticamente el eje Y completo desde 0 hasta el valor superior más un margen. Para gráficos de líneas, gráficos de áreas e histograma, puede habilitar o deshabilitar la leyenda. @@ -216,7 +216,7 @@ Lea las secciones siguientes para obtener más información sobre la caracterís - Para obtener más opciones de personalización, consulte [Personalizar su panel](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard#dash-manage). + Para obtener más opciones de personalización, consulte [Personalizar su dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard#dash-manage). ### Característica más específica del gráfico [#more-types] @@ -225,10 +225,20 @@ Para obtener más características específicas del tipo de gráfico, consulte [ ## Opciones para compartir y ver gráficos [#share-charts] -La mayoría de los gráficos tienen varias opciones, incluida la opción de incrustar gráficos, obtener un gráfico como imagen y agregar un gráfico a un dashboard. Ver [Importar, exportar, agregar y compartir paneles y gráficos](/docs/query-your-data/explore-query-data/dashboards/dashboards-charts-import-export-data/) +La mayoría de los gráficos tienen varias opciones, incluida la opción de incrustar un gráfico, obtener un gráfico como imagen y agregar un gráfico a un dashboard. Consulte [Importar, exportar y agregar dashboards y gráficos](/docs/query-your-data/explore-query-data/dashboards/dashboards-charts-import-export-data/). Para compartir un gráfico dentro de su equipo, consulte [Compartir dashboards y gráficos internamente](/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-internally/#share-charts-internally). Para compartir un gráfico externamente, consulte [Compartir el dashboard y los gráficos públicamente](/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-externally/#chart). + +## Gráfico con una tendencia prevista [#chart-forecasted-trend] + + + Todavía estamos trabajando en esta característica, ¡pero nos encantaría que la probaras! + + Esta característica se proporciona actualmente como parte de un programa de vista previa de conformidad con nuestras [políticas de prelanzamiento](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy). + + +Si está inscrito en [Predicciones NRQL](/docs/query-your-data/explore-query-data/use-charts/nrql-predictions), puede crear predicciones en gráficos de líneas y áreas para proyectar tendencias futuras basadas en datos históricos. ## Utilice una biblioteca de gráficos de código abierto [#victory-charts] -Puedes emplear [Nerdpacks](/docs/new-relic-solutions/build-nr-ui/nerdpack-file-structure/) para crear tus propias visualizaciones personalizadas. También nos asociamos con Formidable para que puedas usar una biblioteca de gráficos de código abierto y agregar rápidamente "gráficos de victoria" únicos a tu panel de control. Para obtener más información sobre estos [Nerdpacks de visualización personalizados](/docs/new-relic-solutions/tutorials/customize-nerdpacks), mire este breve video (aprox. 4 minutos). +Puedes emplear [Nerdpacks](/docs/new-relic-solutions/build-nr-ui/nerdpack-file-structure/) para crear tus propias visualizaciones personalizadas. También nos asociamos con Formidable para que puedas usar una biblioteca de gráficos de código abierto y agregar rápidamente "gráficos de victoria" únicos a tu dashboard. Para obtener más información sobre estos [Nerdpacks de visualización personalizados](/docs/new-relic-solutions/tutorials/customize-nerdpacks), mire este breve video (aprox. 4 minutos). + + + Nous travaillons toujours sur cette fonctionnalité, mais nous aimerions que vous l'essayiez ! + + Cette fonctionnalité est actuellement fournie dans le cadre d'un programme d'aperçu conformément à nos [politiques de pré-sortie](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy). + + + Le **Predictive Alerts** dans New Relic utilise des données historiques pour construire des modèles qui prédisent les violations de seuil statique. Vous pouvez définir jusqu'à quelle distance dans le futur effectuer la prédiction. Si une violation est anticipée, un événement d'alerte prédictive se déclenche, vous permettant d'agir avant que des perturbations ne surviennent. + + Pour activer le **Predictive Alerts**: + + 1. Dans la section **Set condition thresholds** , sélectionnez le type de condition de seuil comme**Static**. + + 2. Pour les alertes prédictives, activez la bascule **Predict future behavior** . + + 3. Définissez le temps d’anticipation pour prédire dans combien de temps le seuil pourrait être dépassé. Le temps d'anticipation maximal est de 360 fois la [durée de la fenêtre](/docs/alerts/create-alert/create-alert-condition/alert-conditions/#window-duration). + + 4. Définissez le comportement de l'événement d'alerte prévu, lorsque le signal réel dépasse le seuil. + + * Fermez l’alerte prédite et ouvrez une alerte réelle. + * Gardez l’alerte prédite ouverte pour réduire le bruit. + + Pour en savoir plus sur le **Predictive Alerts**, consultez notre [documentation](/docs/alerts/create-alert/set-thresholds/predictive-alerts). + + Le [seuil de signal perdu](/docs/alerts/create-alert/create-alert-condition/create-nrql-alert-conditions/#signal-loss) détermine combien de temps attendre avant de considérer un signal manquant comme perdu. Si le signal ne revient pas dans ce délai, vous pouvez choisir d'ouvrir un nouvel incident ou de fermer ceux qui y sont liés. Vous pouvez également choisir d’ignorer l’ouverture d’un incident lorsqu’un signal doit se terminer. Définissez le seuil en fonction du comportement attendu de votre système et de la fréquence de collecte des données. Par exemple, si un site Web subit une perte totale de trafic, ou de débit, les données télémétriques correspondantes envoyées à New Relic cesseront également. la monitoring de cette perte de signal peut servir de système d'alerte précoce pour de telles pannes. @@ -273,7 +298,7 @@ Pour toutes les méthodes à l’exception de notre mode guidé, le processus de -Pour en savoir plus sur les alertes multi-comptes, consultez notre [rubrique Alertes multi-comptes.](/docs/alerts/create-alert/create-alert-condition/cross-account-alert) +Pour en savoir plus sur les alertes inter-comptes, consultez notre [rubrique Alertes inter-comptes.](/docs/alerts/create-alert/create-alert-condition/cross-account-alert) ## Modifier une condition d'alerte existante [#edit-existing-alert-condition] @@ -337,7 +362,7 @@ Le type de condition principal et recommandé est une condition d’alerte NRQL, * Temps CPU de collecte des déchets - l'incident se fermera automatiquement lorsque l'inverse du seuil sera atteint, mais en utilisant l'UI vous pouvez également modifier le moment où un [incident](/docs/new-relic-solutions/get-started/glossary/#alert-incident) se ferme de force pour une métrique de santé JVM . La valeur par défaut est 24 heures. + L'incident se fermera automatiquement lorsque l'inverse du seuil sera atteint, mais en utilisant l'UI vous pouvez également modifier le moment où un [incident](/docs/new-relic-solutions/get-started/glossary/#alert-incident) se ferme de force pour une métrique de santé JVM . La valeur par défaut est 24 heures. diff --git a/src/i18n/content/fr/docs/alerts/create-alert/create-alert-condition/create-nrql-alert-conditions.mdx b/src/i18n/content/fr/docs/alerts/create-alert/create-alert-condition/create-nrql-alert-conditions.mdx index cd10d0cd767..52cd364a4c6 100644 --- a/src/i18n/content/fr/docs/alerts/create-alert/create-alert-condition/create-nrql-alert-conditions.mdx +++ b/src/i18n/content/fr/docs/alerts/create-alert/create-alert-condition/create-nrql-alert-conditions.mdx @@ -194,6 +194,18 @@ Certains éléments de NRQL utilisés dans les graphiques n'ont pas de sens + + + `PREDICT` + + + + Dans une requête NRQL , la clause `PREDICT` prévoit le comportement attendu d'une série chronologique sur une période future spécifiée. + + Si vous configurez une condition NRQL avec un seuil statique, la propriété équivalente à la clause `PREDICT` est la bascule **Predict future behavior** sous la section **Set condition thresholds** . + + + `histogram()` diff --git a/src/i18n/content/fr/docs/alerts/overview.mdx b/src/i18n/content/fr/docs/alerts/overview.mdx index b426809cfdb..97357c7bd31 100644 --- a/src/i18n/content/fr/docs/alerts/overview.mdx +++ b/src/i18n/content/fr/docs/alerts/overview.mdx @@ -17,6 +17,7 @@ Grâce aux alertes, vous pouvez : * Organiser les alertes via [des balises](/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data/#query-tags). * Identifiez [les anomalies](/docs/alerts-applied-intelligence/applied-intelligence/anomaly-detection/anomaly-detection-applied-intelligence/) avant qu’elles ne deviennent des problèmes plus vastes. * Acheminez les problèmes vers le système ou l'équipe approprié à l'aide [des notifications](/docs/alerts-applied-intelligence/notifications/intro-notifications/). +* Permettre au [Predictive capability](/docs/alerts/create-alert/set-thresholds/predictive-alerts) d’anticiper et de réagir de manière proactive à d’éventuelles violations de seuil à l’avenir. (Disponible avec l'aperçu public des alertes prédictives). Les alertes New Relic vous permettent de : diff --git a/src/i18n/content/fr/docs/apis/nerdgraph/examples/manage-live-chart-urls-via-api.mdx b/src/i18n/content/fr/docs/apis/nerdgraph/examples/manage-live-chart-urls-via-api.mdx index 1da2a6ab256..544054c7655 100644 --- a/src/i18n/content/fr/docs/apis/nerdgraph/examples/manage-live-chart-urls-via-api.mdx +++ b/src/i18n/content/fr/docs/apis/nerdgraph/examples/manage-live-chart-urls-via-api.mdx @@ -1,5 +1,5 @@ --- -title: 'NerdGraph tutorial: List and revoke public sharing chart URLs' +title: "Tutoriel NerdGraph\_: répertorier et révoquer les URL de partage public des graphiques" tags: - APIs - NerdGraph @@ -11,14 +11,14 @@ translationType: machine Vous pouvez répertorier et révoquer les URL de graphiques en direct accessibles au public à l'aide de requêtes et de mutations dans [NerdGraph](/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph). -To do this: +Pour ce faire : -1. Go to [GraphiQL Explorer](https://api.newrelic.com/graphiql). +1. Accédez à [GraphiQL Explorer](https://api.newrelic.com/graphiql). 2. [Répertoriez toutes les URL de graphiques en direct](#list) créées dans votre compte New Relic. 3. [Révoquez toute URL de graphique en direct que vous souhaitez](#revoke). - To create publicly accessible live chart URLs, refer our [docs](/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-externally/#chart). + Pour créer des URL de graphiques en direct accessibles au public, reportez-vous à notre [documentation](/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-externally/#chart). ## Listez toutes les URL des graphiques en direct [#list] diff --git a/src/i18n/content/fr/docs/apis/nerdgraph/examples/manage-live-dashboard-urls-via-api.mdx b/src/i18n/content/fr/docs/apis/nerdgraph/examples/manage-live-dashboard-urls-via-api.mdx index e8285965916..3dc6ccf2702 100644 --- a/src/i18n/content/fr/docs/apis/nerdgraph/examples/manage-live-dashboard-urls-via-api.mdx +++ b/src/i18n/content/fr/docs/apis/nerdgraph/examples/manage-live-dashboard-urls-via-api.mdx @@ -20,7 +20,7 @@ Pour créer, mettre à jour ou révoquer une URL dashboard en direct accessible 1. Allez à **[one.newrelic.com > Dashboards](https://one.newrelic.com//dashboards)**. 2. Ouvrez le dashboard que vous souhaitez partager. -3. Navigate to ** > Metadata**, and copy the entity GUID of the dashboard. +3. Accédez à ** > Metadata** et copiez le GUID d’entité du dashboard. diff --git a/src/i18n/content/fr/docs/apis/nerdgraph/examples/nerdgraph-dashboards.mdx b/src/i18n/content/fr/docs/apis/nerdgraph/examples/nerdgraph-dashboards.mdx index a853aaeff29..5919b4d0ab0 100644 --- a/src/i18n/content/fr/docs/apis/nerdgraph/examples/nerdgraph-dashboards.mdx +++ b/src/i18n/content/fr/docs/apis/nerdgraph/examples/nerdgraph-dashboards.mdx @@ -1,5 +1,5 @@ --- -title: 'NerdGraph tutorial: Create and manage dashboards' +title: 'Tutoriel NerdGraph : Créer et gérer un dashboard' tags: - Dashboards - Dashboards API @@ -251,7 +251,7 @@ Voici les opérations liées à la création, la lecture, la mise à jour et la - Create publicly accessible live dashboard URL. + Créez une URL dashboard en direct accessible au public. @@ -265,7 +265,7 @@ Voici les opérations liées à la création, la lecture, la mise à jour et la - Update the expiration date of a publicly accessible live dashboard URL. + Mettre à jour la date d’expiration d’une URL dashboard en direct accessible au public. @@ -279,7 +279,7 @@ Voici les opérations liées à la création, la lecture, la mise à jour et la - Revoke publicly accessible live dashboard URL. + Révoquer l'URL dashboard en direct accessible au public. @@ -293,7 +293,7 @@ Voici les opérations liées à la création, la lecture, la mise à jour et la - Only an Authentication Domain Manager can use this mutation to enable or disable the **Live URL Creation** policy for accounts. Users can create live URLs for dashboards in accounts where this policy is enabled. + Seul un gestionnaire de domaine d’authentification peut utiliser cette mutation pour activer ou désactiver la politique **Live URL Creation** pour les comptes. L'utilisateur peut créer des URL en direct pour le dashboard dans les comptes où cette politique est activée. diff --git a/src/i18n/content/fr/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph.mdx b/src/i18n/content/fr/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph.mdx index 882af97aed2..252dd260cda 100644 --- a/src/i18n/content/fr/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph.mdx +++ b/src/i18n/content/fr/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph.mdx @@ -120,7 +120,7 @@ Voici tous nos documents NerdGraph disponibles : * [Installer agent de navigateur et configurer monitoring](/docs/apis/nerdgraph/examples/browser-monitoring-config-nerdgraph) - * [Instrument multiple apps using NPM package](/docs/apis/nerdgraph/examples/combining-npm-nerdgraph) + * [Instrumenter plusieurs applications à l'aide packageNPM](/docs/apis/nerdgraph/examples/combining-npm-nerdgraph) @@ -146,7 +146,7 @@ Voici tous nos documents NerdGraph disponibles : * [Exporter le dashboard vers d’autres comptes](/docs/apis/nerdgraph/examples/export-import-dashboards-using-api/) * [Exporter le dashboard sous forme de fichiers](/docs/apis/nerdgraph/examples/export-dashboards-pdfpng-using-api/) * [Gérer le dashboard partagé en externe](/docs/apis/nerdgraph/examples/manage-live-dashboard-urls-via-api) - * [Manage externally shared charts](/docs/apis/nerdgraph/examples/manage-live-chart-urls-via-api) + * [Gérer les graphiques partagés en externe](/docs/apis/nerdgraph/examples/manage-live-chart-urls-via-api) @@ -244,21 +244,21 @@ Voici tous nos documents NerdGraph disponibles : - Scorecards + Cartes de pointage - [Create and manage Scorecards and its rules](/docs/apis/nerdgraph/examples/nerdgraph-scorecards-tutorial) + [Créer et gérer des tableaux de bord et leurs règles](/docs/apis/nerdgraph/examples/nerdgraph-scorecards-tutorial) - RAG Data Indexing + Indexation des données RAG - * [Enhance NRAI with RAG](/docs/apis/nerdgraph/examples/nerdgraph-rag) + * [Améliorer NRAI avec RAG](/docs/apis/nerdgraph/examples/nerdgraph-rag) @@ -298,7 +298,7 @@ Voici tous nos documents NerdGraph disponibles : - [Create your Teams](/docs/apis/nerdgraph/tutorials/nerdgraph-teams-tutorial) + [Créez vos équipes](/docs/apis/nerdgraph/tutorials/nerdgraph-teams-tutorial) diff --git a/src/i18n/content/fr/docs/apm/agents/manage-apm-agents/agent-data/manage-errors-apm-collect-ignore-or-mark-expected.mdx b/src/i18n/content/fr/docs/apm/agents/manage-apm-agents/agent-data/manage-errors-apm-collect-ignore-or-mark-expected.mdx index eb58c62149c..d1815fdfdda 100644 --- a/src/i18n/content/fr/docs/apm/agents/manage-apm-agents/agent-data/manage-errors-apm-collect-ignore-or-mark-expected.mdx +++ b/src/i18n/content/fr/docs/apm/agents/manage-apm-agents/agent-data/manage-errors-apm-collect-ignore-or-mark-expected.mdx @@ -58,11 +58,11 @@ Il existe deux manières d'ignorer l'erreur : via la agent configurati * **Go**: [`ErrorCollector.IgnoreStatusCodes`](/docs/agents/go-agent/instrumentation/go-agent-configuration#error-ignore-status). * **Java**: `error_collector.ignore_classes`, `error_collector.ignore_classes.message` ou `error_collector.ignore_status_codes`. Pour plus d'informations, voir [Configuration des erreurs de l'agent Java](/docs/agents/java-agent/configuration/java-agent-error-configuration). - * **.NET**: [`ignoreErrors`](/docs/apm/agents/net-agent/configuration/net-agent-configuration/#error-ignoreErrors) ou [`ignoreStatusCodes`](/docs/apm/agents/net-agent/configuration/net-agent-configuration/#error-ignoreStatusCodes). - * **Node.js**: `ignore_status_codes`, [`ignore_classes`](/docs/agents/nodejs-agent/installation-configuration/nodejs-agent-configuration#error_ignore) ou [`ignore_messages`](/docs/agents/nodejs-agent/installation-configuration/nodejs-agent-configuration#error_ignore). + * **.NET**: [`ignoreClasses`](/docs/apm/agents/net-agent/configuration/net-agent-configuration/#error-ignoreClasses), [`ignoreMessages`](/docs/apm/agents/net-agent/configuration/net-agent-configuration/#error-ignoreMessages) ou [`ignoreStatusCodes`](/docs/apm/agents/net-agent/configuration/net-agent-configuration/#error-ignoreStatusCodes). + * **Node.js**: [`ignore_classes`](/docs/apm/agents/nodejs-agent/installation-configuration/nodejs-agent-configuration/#error_ignore_classes), [`ignore_messages`](/docs/apm/agents/nodejs-agent/installation-configuration/nodejs-agent-configuration/#error_ignore_messages) ou [`ignore_status_codes`](/docs/apm/agents/nodejs-agent/installation-configuration/nodejs-agent-configuration/#error_ignore). * **PHP**: [`error_collector.ignore_exceptions`](/docs/apm/agents/php-agent/configuration/php-agent-configuration/#inivar-err-ignore-exceptions) ou [`error_collector.ignore_errors`](/docs/apm/agents/php-agent/configuration/php-agent-configuration/#inivar-err-ignore-errors). * **Python**: [`error_collector.ignore_classes`](/docs/agents/python-agent/configuration/python-agent-configuration/#error-ignore) ou [`error_collector.ignore_status_codes`](/docs/agents/python-agent/configuration/python-agent-configuration/#error-ignore-status-codes). - * **Ruby**: [`error_collector.ignore_errors`](/docs/agents/ruby-agent/configuration/ruby-agent-configuration#error_collector-ignore_errors). + * **Ruby**: [`error_collector.ignore_classes`](/docs/apm/agents/ruby-agent/configuration/ruby-agent-configuration/#error_collector-ignore_classes),[`error_collector.ignore_messages`](/docs/apm/agents/ruby-agent/configuration/ruby-agent-configuration/#error_collector-ignore_messages) ou [`error_collector.ignore_status_codes`](/docs/apm/agents/ruby-agent/configuration/ruby-agent-configuration/#error_collector-ignore_status_codes) @@ -74,7 +74,7 @@ Pour configurer les erreurs comme prévu, consultez la documentation spécifique * [Java](/docs/agents/java-agent/configuration/java-agent-error-configuration) * [Ruby](/docs/agents/ruby-agent/configuration/ruby-agent-configuration/#error-collector) -* [Node.js](/docs/agents/nodejs-agent/installation-configuration/nodejs-agent-configuration) +* [Node.js](/docs/apm/agents/nodejs-agent/installation-configuration/nodejs-agent-configuration/#error_config) * [.NET](/docs/apm/agents/net-agent/configuration/net-agent-configuration/#error_collector) * [Go](/docs/apm/agents/go-agent/configuration/go-agent-configuration/#error-collector) * [Python](/docs/agents/python-agent/configuration/python-agent-configuration/#error-collector-settings) diff --git a/src/i18n/content/fr/docs/apm/agents/net-agent/net-agent-api/net-agent-api.mdx b/src/i18n/content/fr/docs/apm/agents/net-agent/net-agent-api/net-agent-api.mdx index 4f2e5de4e23..629c353beae 100644 --- a/src/i18n/content/fr/docs/apm/agents/net-agent/net-agent-api/net-agent-api.mdx +++ b/src/i18n/content/fr/docs/apm/agents/net-agent/net-agent-api/net-agent-api.mdx @@ -1539,7 +1539,7 @@ La liste suivante contient les différents appels que vous pouvez effectuer avec - + ```cs NewRelic.Api.Agent.NewRelic.NoticeError(string $error_message, IDictionary $attributes) ``` diff --git a/src/i18n/content/fr/docs/apm/agents/python-agent/configuration/distributed-tracing-python-agent.mdx b/src/i18n/content/fr/docs/apm/agents/python-agent/configuration/distributed-tracing-python-agent.mdx index aab69a68a5b..10b76375304 100644 --- a/src/i18n/content/fr/docs/apm/agents/python-agent/configuration/distributed-tracing-python-agent.mdx +++ b/src/i18n/content/fr/docs/apm/agents/python-agent/configuration/distributed-tracing-python-agent.mdx @@ -207,15 +207,15 @@ Recommandation : Avant de procéder à une instrumentation personnalisée, lisez * [Comment fonctionne le traçage distribué](/docs/apm/distributed-tracing/getting-started/how-new-relic-distributed-tracing-works) * [Résoudre les problèmes de données manquantes](/docs/apm/distributed-tracing/troubleshooting/troubleshooting-missing-trace-data) -Si un service ne transmet pas l'en-tête de trace à d'autres services, vous pouvez utiliser l'API de charge de traçage distribué pour instrumenter le [service appelant](#calling-service) et le [service appelé](#called-service). Le service appelant utilise un appel d'API pour générer une charge, qui est acceptée par le service appelé. +Si un service ne transmet pas l'en-tête de trace à d'autres services, vous pouvez utiliser les API d'en-tête de tracing distribué pour instrumenter le [service appelant](#calling-service) et le [service appelé](#called-service). Le service appelant utilise un appel d'API pour générer des en-têtes, qui sont acceptés par le service appelé. Pour instrumenter le service appelant : 1. Assurez-vous que la [version de l'agent APM](#compatibility-requirements) qui monitore le service appelant prend en charge le traçage distribué. - 2. Invoquez l'API d'agent call pour générer une traces distribuée chargée (voir [Python API l' d'agent](/docs/agents/python-agent/python-agent-api/create_distributed_trace_payload)). Pour maintenir l’ordre correct des étendues dans une trace, assurez-vous de **generate the payload in the context of the span that sends it**. - 3. Ajoutez cette charge utile à l’appel effectué au service de destination (par exemple, dans un en-tête). + 2. Invoquez l'API d'appel d'agent pour insérer les en-têtes de tracedistribués (voir l'[API d'agent Python ](/docs/agents/python-agent/python-agent-api/insertdistributedtraceheaders-python-agent-api)). Pour maintenir l’ordre correct des étendues dans une trace, assurez-vous de **generate the headers in the context of the span that sends it**. + 3. Ajoutez ces en-têtes à l’appel effectué au service de destination. 4. (Facultatif) Identifiez l'appel comme un appel externe (voir [Python API l' d'agent](/docs/agents/python-agent/python-agent-api/external-trace)). @@ -224,12 +224,12 @@ Si un service ne transmet pas l'en-tête de trace à d'autres services 1. Assurez-vous que la [version de l'agent APM](#compatibility-requirements) qui monitore le service appelé prend en charge le traçage distribué. - 2. Si agent New Relic l' sur le service appelé n'identifie pas une New Relic transaction, utilisez API l' d'agent pour déclarer une transaction. Voici une façon de savoir qu'une transaction n'est pas en cours : lorsque `transaction = current_transaction()` est exécuté, `transaction` est `None`. Ou, si `result = accept_distributed_trace_payload(payload)` est exécuté, alors le résultat est `False`. + 2. Si l'agent New Relic sur le service appelé n'identifie pas une transaction New Relic, utilisez l'API de l'agent pour déclarer une transaction. Voici une façon de savoir qu'une transaction n'est pas en cours : lorsque `transaction = current_transaction()` est exécuté, `transaction` est `None`.. Utilisez [`background_task`](/docs/agents/python-agent/python-agent-api/background_task) pour signaler une [transaction non Web](/docs/apm/transactions/intro-transactions/monitor-background-processes-other-non-web-transactions#define). Pour en savoir plus sur Python instrumentation, consultez [les transactions et segments du moniteur](/docs/agents/python-agent/api-guides/guide-using-python-agent-api#transaction-segments). - 3. Extrayez la charge utile de l’appel que vous avez reçu (par exemple, dans un en-tête). + 3. Extrayez les en-têtes de l’appel que vous avez reçu. - 4. Invoquer l'appel pour accepter la charge (voir [Python API l' d'agent](/docs/agents/python-agent/python-agent-api/accept_distributed_trace_payload). + 4. Invoquer l'appel pour accepter les en-têtes (voir l'[APIPython d'agent](/docs/agents/python-agent/python-agent-api/acceptdistributedtraceheaders-python-agent-api)). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/apm/transactions/workload-performance-monitoring/introdution.mdx b/src/i18n/content/fr/docs/apm/transactions/workload-performance-monitoring/introdution.mdx new file mode 100644 index 00000000000..3902516a85f --- /dev/null +++ b/src/i18n/content/fr/docs/apm/transactions/workload-performance-monitoring/introdution.mdx @@ -0,0 +1,37 @@ +--- +title: Introduction à Transaction 360 +tags: + - transaction workloads + - transaction 360 +metaDescription: New Relic's Transaction 360 offers a revolutionary approach to application monitoring and troubleshooting by automatically capturing and correlating all entities and data related to a specific problem or question. +freshnessValidatedDate: never +translationType: machine +--- + + + Nous travaillons toujours sur cette fonctionnalité, mais nous aimerions que vous l'essayiez ! Cette fonctionnalité est actuellement fournie dans le cadre d'un programme d'aperçu conformément à nos [politiques de pré-sortie](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy). L'aperçu public inclut l'accès à **[Auto-Discovery](/docs/infrastructure/amazon-integrations/connect/set-up-auto-discovery-of-aws-entities)** et **[Transaction 360](/docs/apm/transactions/workload-performance-monitoring/transaction-workloads)**, regroupés ensemble. En optant pour l'aperçu, vous avez accès aux trois fonctionnalités sans frais ; la désactivation de l'aperçu s'applique également aux trois. + + +Dans le paysage technologique actuel en évolution rapide, les applications modernes sont devenues de plus en plus complexes, entraînant une augmentation significative du Délai moyen de résolution (MTTR) (MTTR). Cette complexité découle des divers composants qui composent les applications modernes, tels que la base de données, la fonction sans serveur, les navigateurs, les applications mobiles, le fichier d'attente des messages, infrastructure, le modèle d'IA et les services. le suivi de ces services individuels ne suffit plus. Les propriétaires d’applications ont besoin d’une visibilité complète sur l’ensemble de leur écosystème d’applications. + +Transaction 360 de New Relic offre une approche détaillée de monitoring des applications et du dépannage en capturant et en corrélant automatiquement toutes les entités et données liées à un problème ou à une question spécifique. + +Les fonctionnalités clés de Transaction 360 incluent : + +* **Découverte automatique**: modélisation dynamique des relations de service et visualisation des flux de transactions en temps réel. +* **Visibilité complète**: monitoring stack complète, suivi des transactions interservices et visibilité infrastructure jusqu'au navigateur. +* **Analyse historique**: Accès à des semaines de données historiques, permettant l'analyse des tendances et la reconnaissance de modèles. + + + Vous devez activer le tracing distribué pour utiliser Transaction 360. La majeure partie de l'expérience est accessible à tous ; cependant, les composants de la carte de flux de trace et des cartes avancées dans la vue de charge de travail de transaction nécessitent Advanced Compute. + + +## Bien démarrer + +Pour démarrer avec Transaction 360, vous devez activer le tracing distribué dans votre compte New Relic. Une fois activée, vous pouvez accéder à la fonctionnalité Transaction 360 depuis la page d'accueil de New Relic One. + +## Et ensuite ? + + + Découvrez comment utiliser Transaction 360 pour résoudre les problèmes de performances des applications + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/apm/transactions/workload-performance-monitoring/transaction-workloads.mdx b/src/i18n/content/fr/docs/apm/transactions/workload-performance-monitoring/transaction-workloads.mdx new file mode 100644 index 00000000000..1b9cd8053fc --- /dev/null +++ b/src/i18n/content/fr/docs/apm/transactions/workload-performance-monitoring/transaction-workloads.mdx @@ -0,0 +1,90 @@ +--- +title: Dépannage accéléré avec Transaction 360 +tags: + - transaction workloads + - dynamic workload monitoring +metaDescription: Learn about the detailed page breakdown in New Relic's Transaction 360 feature. +freshnessValidatedDate: never +translationType: machine +--- + +Lorsque des problèmes de performances des applications surviennent, il est essentiel d'adopter une approche systématique pour identifier et résoudre la cause première. Ce guide vous aide à visualiser les problèmes de performances des applications à l'aide de Transaction 360. + +Étant donné que Transaction 360 capture et met en corrélation automatiquement toutes les entités et données liées à un problème ou à une question spécifique, il fournit une vue complète de la workload. Cette vue inclut le flux de transaction, les relations de service et les mesures de performance, vous permettant d'identifier et de résoudre rapidement les problèmes. + +## Accéder à la vue Transaction 360 + +Pour accéder à la vue Charge de travail des transactions, procédez comme suit : + +1. Accédez à **[one.newrelic.com](https://one.newrelic.com)> APM and Services**. +2. Depuis la page de résumé APM, cliquez sur **Transactions > Transaction Details > View transaction 360 workload**. + +La vue Transaction 360 fournit une répartition détaillée de la workload des transactions, y compris les composants suivants : + +* **PrésentationTransaction 360 **: affiche le résumé workload de la transaction, y compris le nombre d'entités impliquées, les alertes et le suivi des changements. + +* **Carte de flux dynamique**: visualise le flux de transaction, montrant les services impliqués et le temps pris par chaque service. + +* **Entité participante**: répertorie les services impliqués dans la workload de la transaction, ainsi que leurs mesures de performance. + +## Présentation de Transaction 360 + +transaction-360-overview.webp + +La section Présentation Transaction 360 fournit le résumé de haut niveau suivant de la workload de transaction associée : + +* **Entité dépendante :** Le nombre total d'entités impliquées dans la workload de la transaction fournissant des informations détaillées telles que le nombre d'entités instrumentées et non instrumentées, et le nombre d'entités avec des alertes. De plus, vous pouvez cliquer sur l’entité instrumentée pour afficher ses mesures de performance détaillées et les services associés. Vous pouvez également cliquer sur l'entité non instrumentée pour afficher la liste des entités qui ne sont pas instrumentées, vous permettant d'identifier l'entité qui nécessite instrumentation. De même, vous pouvez cliquer sur l’entité avec des alertes pour afficher la liste des entités avec des alertes, vous permettant de hiérarchiser votre enquête en fonction de la gravité des alertes. + +* **Problèmes :** nombre de problèmes détectés dans la workload des transactions, y compris les alertes et les marqueurs de suivi des changements. Cliquez sur **View details** pour afficher la liste des problèmes et identifier l’entité directement impactée par les problèmes de performances. + +* **suivi des changements :** Le nombre de marqueurs de suivi des changements détectés dans la workload de transaction, indiquant des changements dans les performances de la workload. Cliquez sur **View details** pour visualiser les marqueurs de suivi des changements et identifier les entités directement impactées par les changements de performances. + +## Carte de flux dynamique + +La carte de flux dynamique visualise le flux de transaction, montrant les services impliqués et le temps pris par chaque service. La carte fournit un aperçu de haut niveau de la workload des transactions, vous permettant d'identifier les goulots d'étranglement et les problèmes de performances. + +dynamic-map.webp + +Vous pouvez sélectionner des services associés pour afficher les métriques de tracing entre eux. De plus, vous pouvez également affecter une équipe à la workload de transaction pour faciliter la collaboration et la résolution des problèmes, ou regrouper des entités associées à l'aide d'une balise pour rationaliser le processus d'enquête. + +La carte de flux dynamique vous aide à identifier les services directement impactés par les problèmes de performances, vous permettant ainsi de concentrer votre enquête sur la cause première. + +## Entité participante et soutenante + +### Entité APM + +La section Entité participante fournit une ventilation détaillée des services impliqués dans la workload de transaction, tels que les services APM, les applications de navigateur, les applications mobiles, les fonctions sans serveur ou l'entité infrastructure . + +partcipating-services.webp + +* **Mesures de performances :** le tableau des services APM affiche les mesures de performances de chaque service, notamment le débit, le taux d'erreur, la latence et les problèmes avec des niveaux de gravité, tels que critique, avertissement et info, pour hiérarchiser votre enquête. + +* **Tableau des transactions :** vous pouvez également utiliser le tableau des transactions pour identifier les transactions présentant le pourcentage de changement de temps de réponse le plus élevé, ce qui vous permet de concentrer votre enquête sur les transactions les plus impactées. De plus, vous pouvez sélectionner une transaction spécifique pour afficher son flux trace et ses mesures de performance. + +### entité d'infrastructure + +Si vous avez instrumenté votre entité infrastructure , vous pouvez visualiser les mesures de performance de votre entité infrastructure dans la vue Transaction 360 . La section Entité infrastructure fournit une ventilation détaillée de l'entité infrastructure impliquée dans la workload de transaction, comme les hôtes, le conteneur et le cluster Kubernetes. + +infrastructure-entities.webp + +* **Métriques de performances :** le tableau des entités d'infrastructure affiche les métriques de performances pour chaque entité, y compris l'utilisation du processeur, l'utilisation de la mémoire, I/O disque et I/O réseau, afin d'identifier les problèmes d'étranglement de performances et les contraintes de ressources. + +* **Tableau des hôtes :** Vous pouvez également utiliser le tableau des hôtes pour trouver la liste des entités infrastructure et identifier les hôtes avec l'utilisation du processeur, de la mémoire, des I/O disque et I/O réseau les plus élevées, vous permettant ainsi de concentrer votre enquête sur les hôtes les plus impactés. De plus, vous pouvez sélectionner un hôte spécifique pour afficher ses mesures de performances et les services associés. + +### Entité Browser + +Si vous avez instrumenté vos applications de navigateur, vous pouvez visualiser les mesures de performance de votre entité de navigateur dans la vue Transaction 360 . La section Entité du navigateur fournit une ventilation détaillée des applications de navigateur impliquées dans la workload de transaction. + +browser-entities.webp + +* **Métriques de performances :** le tableau des entités Browser affiche les mesures de performances pour chaque entité, y compris le temps de chargement de la page, les pages vues et les erreurs JavaScript, afin d'identifier les problèmes de performance et d'étranglement et d'expérience utilisateur. + +* **Relecture de session :** vous pouvez également utiliser la fonctionnalité Relecture de session pour rejouer les sessions utilisateur et identifier les interactions utilisateur qui entraînent des problèmes de performances. De plus, vous pouvez sélectionner une session spécifique pour afficher ses mesures de performance et les services associés. Pour plus d'informations, reportez-vous à [Session Replay](/docs/browser/browser-monitoring/browser-pro-features/session-replay/get-started/). + +### Entité mobile + +Si vous avez instrumenté vos applications mobiles, vous pouvez visualiser les métriques de performance de votre entité mobile dans la vue Transaction 360 . La section Entité mobile fournit une ventilation détaillée des applications mobiles impliquées dans la workload de transaction. + +### Monitoring de l'IA + +Si votre application effectue des appels à des grands modèles de langage (LLM) (LLM) et est instrumentée avec l'agent APM, vous pouvez afficher les mesures de performances de votre entité AI dans la vue Transaction 360 . La section Entité AI fournit une ventilation détaillée du modèle d'IA impliqué dans la workload de transaction. Pour plus d'informations, consultez [monitoring de l'IA](/docs/ai-monitoring/intro-to-ai-monitoring/). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/browser/browser-monitoring/browser-pro-features/browser-logs/get-started.mdx b/src/i18n/content/fr/docs/browser/browser-monitoring/browser-pro-features/browser-logs/get-started.mdx index 87adff887de..af96cf744a2 100644 --- a/src/i18n/content/fr/docs/browser/browser-monitoring/browser-pro-features/browser-logs/get-started.mdx +++ b/src/i18n/content/fr/docs/browser/browser-monitoring/browser-pro-features/browser-logs/get-started.mdx @@ -150,7 +150,7 @@ Améliorez l'observabilité et les capacités de débogage de votre applica * Environ 5 % de vos sessions ne collecteront que des données SR. * Les séances restantes n'auront ni l'un ni l'autre. - * For any new browser apps you create, automatic log collection is enabled by default with a warn verbosity level and a sampling rate of 100%. + * Pour toutes les nouvelles applications de navigateur que vous créez, la collecte automatique log est activée par défaut avec un niveau de verbosité d'avertissement et un taux d'échantillonnage de 100 %. diff --git a/src/i18n/content/fr/docs/browser/browser-monitoring/installation/install-browser-monitoring-agent.mdx b/src/i18n/content/fr/docs/browser/browser-monitoring/installation/install-browser-monitoring-agent.mdx index 1fcce947035..a4983069a98 100644 --- a/src/i18n/content/fr/docs/browser/browser-monitoring/installation/install-browser-monitoring-agent.mdx +++ b/src/i18n/content/fr/docs/browser/browser-monitoring/installation/install-browser-monitoring-agent.mdx @@ -26,7 +26,7 @@ Il existe quatre façons d’installer l’agent du navigateur. En fonction de v - Install with APM + Installer avec APM diff --git a/src/i18n/content/fr/docs/browser/new-relic-browser/browser-apis/log.mdx b/src/i18n/content/fr/docs/browser/new-relic-browser/browser-apis/log.mdx index 4e33ad116a5..0fb1489fec2 100644 --- a/src/i18n/content/fr/docs/browser/new-relic-browser/browser-apis/log.mdx +++ b/src/i18n/content/fr/docs/browser/new-relic-browser/browser-apis/log.mdx @@ -42,7 +42,7 @@ Pour plus d'informations, consultez la [documentation d'installation d ## Description [#log-description] -When you execute this function with a valid message and elective options, the browser agent records the data as a single `log` event. See the [Logs UI](/docs/logs/ui-data/use-logs-ui/) for more information about log events. Any custom attributes supplied to the API call in the `options` argument (`options.customAttributes`) will be appended as top-level attributes on the log event and take precedence over any global custom attributes by [setCustomAttribute](/docs/browser/new-relic-browser/browser-agent-spa-api/set-custom-attribute). You can control the `level` of the captured log by supplying a `level` to the `options` argument (`options.level`), which defaults to `info`. +Lorsque vous exécutez cette fonction avec un message valide et des options facultatives, l'agent du navigateur enregistre les données sous la forme d'un seul événement `log` . Consultez l’[UI de Logs](/docs/logs/ui-data/use-logs-ui/) pour plus d’informations sur événement de log. Tout attribut personnalisé fourni à l'appel d'API dans l'argument `options` (`options.customAttributes`) sera ajouté comme attribut de niveau supérieur sur l'événement de log et aura priorité sur tout attribut global personnalisé par [setCustomAttribute](/docs/browser/new-relic-browser/browser-agent-spa-api/set-custom-attribute). Vous pouvez contrôler le `level` du log capturé en fournissant un `level` à l'argument `options` (`options.level`), qui est par défaut `info`. ## Paramètres [#log-parameters] diff --git a/src/i18n/content/fr/docs/browser/new-relic-browser/browser-apis/setcustomattribute.mdx b/src/i18n/content/fr/docs/browser/new-relic-browser/browser-apis/setcustomattribute.mdx index 950af0d40df..1afe507eca3 100644 --- a/src/i18n/content/fr/docs/browser/new-relic-browser/browser-apis/setcustomattribute.mdx +++ b/src/i18n/content/fr/docs/browser/new-relic-browser/browser-apis/setcustomattribute.mdx @@ -47,11 +47,11 @@ Pour plus d'informations, consultez la [documentation d'installation d Effectuez cet appel avant que l'événement de chargement de la fenêtre ne se déclenche (lorsque ces données sont transmises) afin que l'attribut soit inclus dans l'événement [`PageView`](/docs/insights/explore-data/attributes/browser-default-attributes-insights#browser-attributes-table) . Une fois qu'un attribut est défini, la plateforme New Relic l'enregistre avec tous les événements jusqu'à ce que la page soit rechargée ou que l'attribut soit désactivé manuellement. -If you are using [SPA monitoring](/docs/browser/single-page-app-monitoring/get-started/welcome-single-page-app-monitoring) with a compatible agent version, attributes set with this call will also be included in `BrowserInteraction` events. However, attributes set using the SPA [setAttribute](/docs/browser/new-relic-browser/browser-agent-spa-api/spa-set-attribute) method will take precedence over these attributes. +Si vous utilisez [monitoringSPA](/docs/browser/single-page-app-monitoring/get-started/welcome-single-page-app-monitoring) avec une version d'agent compatible, l'attribut défini avec cet appel sera également inclus dans l'événement `BrowserInteraction`. Cependant, l'attribut défini à l'aide de la méthode SPA [setAttribute](/docs/browser/new-relic-browser/browser-agent-spa-api/spa-set-attribute) aura la priorité sur ces attributs. Les erreurs pour l'attribut personnalisé seront incluses dans l'événement sur la [page Erreurs JS](/docs/browser/new-relic-browser/browser-pro-features/javascript-errors-page-detect-analyze-errors). Pour afficher ou log les erreurs d'un attribut personnalisé via l'API, utilisez l'appel [`noticeError`](/docs/browser/new-relic-browser/browser-agent-spa-api/newrelicnoticeerror-browser-agent-api) de l'API Browser. -Currently, all features or browser events will have these global attributes, except for `SessionReplay` and `BrowserSessionChunk` (Session Trace). +Actuellement, toutes les fonctionnalités ou événements du navigateur auront ces attributs globaux, à l'exception de `SessionReplay` et `BrowserSessionChunk` (trace de session). Avec l'indicateur `persist` , l'attribut peut également être stocké dans le navigateur, de sorte que les visites de pages ultérieures de la *même* origine **within a session** le conservent lors de l'événement. Veuillez noter que cette fonctionnalité peut varier en fonction des paramètres de confidentialité du navigateur de l'utilisateur final. Si cette fonction est appelée avec un `value = null`, l'attribut sera supprimé de l'événement **both** de la page courante et du stockage, *quel que soit* le flag `persist` . diff --git a/src/i18n/content/fr/docs/browser/new-relic-browser/browser-apis/wraplogger.mdx b/src/i18n/content/fr/docs/browser/new-relic-browser/browser-apis/wraplogger.mdx index c383c74dd68..778929cbf03 100644 --- a/src/i18n/content/fr/docs/browser/new-relic-browser/browser-apis/wraplogger.mdx +++ b/src/i18n/content/fr/docs/browser/new-relic-browser/browser-apis/wraplogger.mdx @@ -44,7 +44,7 @@ Pour plus d'informations, consultez la [documentation d'installation d Une fois que vous avez fourni à cette méthode un conteneur parent valide et un nom de fonction enfant, l'agent du navigateur enregistrera un nouvel événement de log chaque fois que la fonction encapsulée est invoquée. Le premier argument est passé à la fonction invoquée en tant que message du log. Consultez l’ [UI de Logs](/docs/logs/ui-data/use-logs-ui/) pour plus d’informations sur événement de log. -You can pass the optional configurations along with these captured logs using the `options` argument. Any custom attributes supplied to the API call in the `options` argument (`options.customAttributes`) are appended as top-level attributes on every log event created by this wrapper and take precedence over any global custom attributes by [setCustomAttribute](/docs/browser/new-relic-browser/browser-agent-spa-api/set-custom-attribute). Supply a `level` to the `options` argument (`options.level`) to control the `level` of captured log. By default, the log level is set to `info`. +Vous pouvez transmettre la configuration facultative avec ces logs capturés à l'aide de l'argument `options` . Tout attribut personnalisé fourni à l'appel d'API dans l'argument `options` (`options.customAttributes`) est ajouté comme attribut de niveau supérieur sur chaque événement de log créé par ce wrapper et a priorité sur tout attribut global personnalisé par [setCustomAttribute](/docs/browser/new-relic-browser/browser-agent-spa-api/set-custom-attribute). Fournissez un `level` à l'argument `options` (`options.level`) pour contrôler le `level` du log capturé. Par défaut, le niveau de log est défini sur `info`. ## Paramètres [#wrap-parameters] diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-billing-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-billing-monitoring-integration.mdx new file mode 100644 index 00000000000..10cbb12353d --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-billing-monitoring-integration.mdx @@ -0,0 +1,302 @@ +--- +title: AWS Billing monitoring Intégration +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Billing integration: what data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données AWS Billing à New Relic. Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +## Caractéristiques [#features] + +L'intégration AWS Billing de New Relic collecte les données financières de toutes vos applications et comptes AWS, puis les regroupe pour permettre aux équipes d'obtenir plus facilement une visibilité sur les coûts. Cette intégration collecte des données provenant de différents sous-comptes et services, et évalue également vos [budgets AWS](http://docs.aws.amazon.com/awsaccountbilling/latest/aboutv2/budgets-managing-costs.html) en termes de dépenses réelles et prévues. + +Ces données financières sont réparties dans le dashboard suivant : + +* Dashboard de bord de facturation (coûts) +* Dashboard de bord de facturation (budgets) + +## Exigences [#requirements] + +Avant d'[activer les budgets AWS](#configure-budget), vous devez : + +* Configurez un budget AWS via AWS Console pour New Relic afin de collecter les données AWS Billing . +* Cochez la case **Receive Billing Alerts** dans **AWS console > Billing and cost management > Billing preferences**. Cela est nécessaire pour qu'Amazon puisse signaler les frais d'utilisation via CloudWatch. Vous n'êtes pas obligé de recevoir réellement des alertes d'AWS. + + + Il vous suffit d'activer la case à cocher **Receive Billing Alerts** pour accéder au dashboard de facturation (coûts). + + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## Activer les budgets AWS [#configure-budget] + +L'activation des budgets AWS permet à New Relic de capturer les consommations de services ainsi que les informations d'utilisation et de coûts pour les budgets que vous avez configurés dans AWS. + + + Si vous **n'avez pas** créé de rôle dans AWS, suivez la procédure pour [connecter AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure#connect) avant de configurer une politique budgétaire. + + +1. Dans la console de gestion AWS, sélectionnez **Services > IAM > Roles**. + +2. Sélectionnez le rôle que vous avez configuré pour New Relic, puis sélectionnez **Permissions**. + +3. Dans l'onglet **Inline policy** du rôle sélectionné, sélectionnez l'option de développement icône si elle existe déjà, ou sélectionnez l'option permettant d'ajouter une nouvelle politique en ligne au rôle. + +4. Sélectionnez l’option pour ajouter une politique personnalisée. + +5. Saisissez un nouveau nom de politique personnalisée ; par exemple, NewRelicBudget. + +6. Saisissez la déclaration d’autorisation suivante dans le **Policy Document**: + + ``` + { + "Version": "2012-10-17", + "Statement": [ + { + "Effect": "Allow", + "Action": [ + "budgets:ViewBudget" + ], + "Resource": "*" + } + ] + } + ``` + +7. Enregistrez vos modifications. + + + Si vous configurez New Relic pour récupérer les données [budgétaires AWS](http://docs.aws.amazon.com/awsaccountbilling/latest/aboutv2/budgets-managing-costs.html) à partir d'un compte membre AWS, assurez-vous que le propriétaire du compte a [activé l'accès utilisateur IAM à la console de gestion de la facturation et des coûts](https://docs.aws.amazon.com/awsaccountbilling/latest/aboutv2/grantaccess.html). + + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration dans l’ UI infrastructure, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des AWS Billing liens d’intégration . + +Pour obtenir des informations générales sur la manière de rechercher et d’utiliser les données d’intégration, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +Les données sont attachées au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `FinanceSample` . Ce type d'événement peut avoir quatre valeurs `provider` différentes, selon le type de données de facturation : + +* [Budgets](#billing-budget) +* [services dépenses AWS](#billing-service-cost) +* [Dépenses agrégées de compte et de sous-compte](#billing-account-cost) +* [Données de compte/sous-compte non agrégées et dépenses de services AWS non agrégées](#billing-account-service) + +Les détails concernant ces types de données de facturation et la manière de les interroger sont indiqués ci-dessous : + + + + Les données du fournisseur `BillingBudget` sont liées aux budgets AWS. Ces données vous permettent de monitorer : + + * Argent dépensé selon un budget + + * Les limites que vous définissez pour chaque budget + + * Dépenses prévues + + Vous pouvez configurer des budgets en fonction de l'utilisation ou des dépenses, dans différentes devises ou pour une période mensuelle, trimestrielle ou annuelle. Les budgets sont un excellent outil pour monitorer et contrôler les coûts et profiter du modèle prédictif AWS pour voir les coûts prévus. + + **NRQL example**:Pour un tableau de différents budgets avec les dépenses réelles, les prévisions, les limites et l'utilisation par rapport au coût monétaire, exécutez la requête NRQL suivante : + + ``` + SELECT latest(`provider.budgetType`) as 'Budget Type', + max(`provider.actualAmount`) as 'Actual Amount', + max(`provider.limitAmount`) as 'Budget Limit', + latest(`provider.forecastedAmount`) as 'Forecast' + FROM FinanceSample + WHERE provider='BillingBudget' + AND providerAccountId = 'NEW_RELIC_ID_FOR_YOUR_CLOUD_ACCOUNT' + FACET `provider.budgetName` + SINCE 1 day ago + ``` + + + Le `providerAccountId` est l'ID de votre compte cloud de services dans New Relic. Vous pouvez le trouver dans **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**, à côté de **Provider account**. + + + + + Les données stockées dans le fournisseur `BillingServiceCost` sont agrégées pour les coûts de service contenant les données les plus récentes et les plus récentes pour tous les coûts des services AWS dans tous les comptes enregistrés. + + + Si vous avez configuré plusieurs comptes AWS, New Relic recommande de filtrer par chaque compte avec l'attribut `providerAccountName` ou `providerAccountId`. + + + **NRQL example**:Pour regrouper les fournisseurs par noms de service, exécutez la requête NRQL suivante : + + ``` + SELECT latest(`provider.estimatedCharges.Maximum`) + FROM FinanceSample + WHERE provider='BillingServiceCost' + AND providerAccountId = 'NEW_RELIC_ID_FOR_YOUR_CLOUD_ACCOUNT' + SINCE 1 day ago + FACET `provider.serviceName` + LIMIT 20 + ``` + + + Le `providerAccountId` est l'ID de votre compte cloud de services dans New Relic. Vous pouvez le trouver dans **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**, à côté de **Provider account**. + + + + + Le fournisseur `BillingAccountCost` stocke les données agrégées pour le compte et le sous-compte contenant l'agrégat le plus récent et le plus récent des données financières. Veuillez garder à l'esprit que si vous avez plusieurs comptes AWS configurés, il est recommandé de filtrer par compte avec l'attribut `providerAccountName` ou `providerAccountId`. + + **NRQL example**:Pour regrouper les fournisseurs par noms de compte, exécutez la requête NRQL suivante : + + ``` + SELECT latest(`provider.estimatedCharges.Maximum`) + FROM FinanceSample + WHERE provider='BillingAccountCost' + AND providerAccountId = 'NEW_RELIC_ID_FOR_YOUR_CLOUD_ACCOUNT' + SINCE 1 day ago + FACET `provider.accountId` + LIMIT 20 + ``` + + + Le `providerAccountId` est l'ID de votre compte cloud de services dans New Relic. Vous pouvez le trouver dans **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**, à côté de **Provider account**. + + + + + Le fournisseur `BillingAccountServiceCost` contient des données non agrégées filtrables par ID de compte AWS ou par nom de services AWS. + + **NRQL example**:Pour comprendre la répartition des coûts des services AWS pour un ID de compte AWS particulier, exécutez la requête NRQL suivante : + + ``` + SELECT latest(`provider.estimatedCharges.Maximum`) + FROM FinanceSample + WHERE provider='BillingAccountServiceCost' + AND providerAccountId = 'NEW_RELIC_ID_FOR_YOUR_CLOUD_ACCOUNT' + SINCE 1 day ago + FACET `provider.serviceName` + LIMIT 100 + ``` + + **NRQL example**:Pour comprendre la répartition des coûts des comptes AWS pour votre service AWS EC2, exécutez la requête NRQL suivante : + + ``` + SELECT latest(`provider.estimatedCharges.Maximum`) + FROM FinanceSample + WHERE provider='BillingAccountServiceCost' + AND providerAccountId = 'NEW_RELIC_ID_FOR_YOUR_CLOUD_ACCOUNT' + AND `provider.serviceName`='AmazonEC2' + FACET `provider.accountId` + SINCE 1 day ago + LIMIT 100 + ``` + + + Le `providerAccountId` est l'ID de votre compte cloud de services dans New Relic. Vous pouvez le trouver dans **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**, à côté de **Provider account**. + + + + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation par défaut](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) pour l'intégration AWS Billing : + +* Intervalle d'interrogation de New Relic : 1 heure +* Intervalle de données Amazon CloudWatch : 4 heures + +## données métriques [#metrics] + +L'intégration AWS Billing de New Relic Infrastructure collecte les données métriques suivantes : + + + + + + + + + + + + + + + + + + + + + + + +
+ + **Data** + + + + **Description** + +
+ Métriques AWS Billing + + `EstimatedCharges`:Les frais estimés pour votre utilisation AWS. Il peut s'agir soit de frais estimés pour un service, soit d'un rollup de frais estimés pour tous les services. La devise est l'USD. +
+ Mesures budgétaires AWS + + * `actualAmount`:Le coût réel ou l'utilisation suivi par un budget. + * `limitAmount`:Le montant total du coût ou de l'utilisation que vous souhaitez suivre avec un budget comme limite supérieure. + * `forecastedAmount`:Le coût ou l'utilisation prévu suivi par un budget. +
+ +## Autres données du système [#attributes] + +L'intégration AWS Billing collecte également l'[attribut](/docs/accounts-partnerships/education/getting-started-new-relic/glossary#attribute) suivant : + + + + + + + + + + + + + + + + + + + + + + + +
+ + **Attributes** + + + + **Description** + +
+ Attribut AWS Billing + + * `Service Name`:Le nom des services AWS. Cette dimension est omise pour le total des frais estimés pour tous les services. + * `Linked Account`:Le numéro de compte lié. +
+ Attribut des budgets AWS + + * `budgetName`:Le nom d'un budget. Unique au sein des comptes + * `budgetType`:Si le budget suit le coût monétaire ou l'utilisation +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-certificate-manager-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-certificate-manager-monitoring-integration.mdx new file mode 100644 index 00000000000..431ef6a158a --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-certificate-manager-monitoring-integration.mdx @@ -0,0 +1,76 @@ +--- +title: Intégration d'Amazon Certificate Manager +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon Certificate Manager integration: what data it reports and how to enable it.' +freshnessValidatedDate: '2023-08-07T00:00:00.000Z' +translationType: machine +--- + +New Relic Infrastructure inclut désormais une intégration pour AWS Certificate Manager qui permet d'envoyer ses données métriques à New Relic. Ce document explique la fonctionnalité de l'intégration, comment l'activer et quelles données sont disponibles pour le reporting. + +## Caractéristiques + +Grâce à notre intégration, nous collectons et envoyons des données télémétriques à New Relic depuis votre [AWS Certificate Manager](https://aws.amazon.com/certificate-manager/). Vous pouvez monitorer vos services, interroger les données entrantes et créer un dashboard pour tout observer en un coup d'œil. + +## Activer l'intégration + +Pour activer cette intégration, suivez les instructions de notre [documentation d'intégration Amazon flux de métriques CloudWatch ](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup/). + +## Rechercher et utiliser des données + +Pour trouver les métriques de votre intégration : + +1. Accédez à [one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) +2. Select **Metrics and events** +3. Filtrer par `aws.certificatemanager` + +## données métriques [#metrics] + +Cette intégration collecte les données Amazon Certificate Manager suivantes : + +### Données métriques du gestionnaire de certificats + + + + + + + + + + + + + + + + + + + + + +
+ métrique (min, max, moyenne, compte, somme) + + Unité + + Description +
+ `DaysToExpiry` + + compter + + Nombre de jours avant l'expiration d'un certificat. ACM arrête de publier cette métrique après l’expiration d’un certificat. +
+ +Toutes les données importées ont la dimension : `CertificateArn`. + +### Créer des alertes + +Vous pouvez configurer pour qu'il vous avertisse de tout changement. Par exemple, vous pouvez configurer une alerte pour informer les parties concernées des erreurs critiques ou fatales. + +Pour en savoir plus sur la création d’alertes, consultez notre [documentation Introduction aux alertes](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-chatbot-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-chatbot-monitoring-integration.mdx new file mode 100644 index 00000000000..1fd93f1af81 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-chatbot-monitoring-integration.mdx @@ -0,0 +1,132 @@ +--- +title: Intégration d'Amazon Chatbot +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon Chatbot integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut désormais une intégration pour AWS Chatbot, envoyant ses données métriques à New Relic. + +Ce document explique la fonctionnalité de l'intégration, comment l'activer et quelles données peuvent être signalées. + +## Caractéristiques + +Collectez et envoyez des données télémétriques à New Relic depuis votre [Chatbot](https://aws.amazon.com/chatbot/) grâce à notre intégration. Monitorez vos services, interrogez les données entrantes et créez un dashboard pour tout observer en un coup d'œil. + +## Activer l'intégration + +Pour activer cette intégration, découvrez comment [connecter les services AWS à New Relic](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream/#set-up-metric-stream). + + + Pour obtenir les métriques AWS Chatbot, modifiez votre région Amazon CloudWatch sur `US East (N. Virginia)`. Pour en savoir plus, consultez [la documentation AWS](https://docs.aws.amazon.com/chatbot/latest/adminguide/monitoring-cloudwatch.html). + + +## Rechercher et utiliser des données + +Pour trouver les métriques de votre intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Metrics and events** et filtrez par `aws.chatbot`. + +## données métriques + +Cette intégration de New Relic Infrastructure collecte les données Amazon Chatbot suivantes : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique (min, max, moyenne, compte, somme) + + Unité + + Description +
+ `EventsThrottled` + + compter + + Le nombre de notifications limitées. +
+ `EventsProcessed` + + compter + + Le nombre de notifications d'événements reçues par AWS Chatbot. +
+ `UnsupportedEvents` + + compter + + Le nombre d'événements ou de messages non pris en charge tentés. +
+ `MessageDeliverySuccess` + + compter + + Le nombre de messages livrés avec succès au client de chat. +
+ `MessageDeliveryFailure` + + compter + + Le nombre de messages qui n'ont pas pu être livrés au client de chat. +
+ +Toutes les données importées ont une dimension : `ConfigurationName`. + +### Créer des alertes + +Vous pouvez configurer pour qu'il vous avertisse en cas de changement. Par exemple, vous pouvez configurer une alerte pour informer les parties concernées des erreurs critiques ou fatales. + +En savoir plus sur la création d’alertes [ici](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-cloudfront-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-cloudfront-monitoring-integration.mdx new file mode 100644 index 00000000000..9f4e15105ef --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-cloudfront-monitoring-integration.mdx @@ -0,0 +1,123 @@ +--- +title: Intégration monitoring Amazon CloudFront +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic AWS CloudFront monitoring integration: how to enable it, and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler les données de service Amazon CloudFront à New Relic. Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +## Caractéristiques [#features] + +[Amazon CloudFront](http://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/Introduction.html) est un service Web Amazon qui accélère la distribution de votre contenu Web. Avec l'intégration New Relic CloudFront, vous pouvez suivre les données CloudFront dans New Relic, y compris le taux d'erreur, le nombre de requêtes et les octets téléchargés/téléchargés. Vous pouvez suivre votre configuration CloudFront et voir comment les modifications de configuration impactent les performances. Vous pouvez également créer des requêtes personnalisées de vos données d'intégration CloudFront et des graphiques personnalisés. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation par défaut](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) pour l'intégration Amazon CloudFront : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : [1 minute](http://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/monitoring-using-cloudwatch.html), avec un délai pouvant aller jusqu'à 1 minute, car CloudFront signale parfois des données partielles + +Si vous utilisez Lambda\@Edge pour personnaliser le contenu fourni par CloudFront afin d'exécuter la fonction Lambda dans des emplacements AWS plus proches de vos clients, vous pouvez activer le filtre **Collect Lambda\@Edge data** afin d'obtenir l'emplacement d'exécution Lambda mémorisé. + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration CloudFront. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `LoadBalancerSample`, avec une valeur `provider` de `CloudFrontDistribution`. + +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Les données suivantes sont collectées pour [les distributions Web CloudFront](http://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/distribution-web.html). Les données ne sont pas disponibles pour [les distributions RTMP](http://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/distribution-rtmp.html). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `requests` + + Le nombre de requests pour toutes les méthodes HTTP et pour requests HTTP et HTTPS. +
+ `bytesDownloaded` + + Le nombre d'octets téléchargés par les téléspectateurs pour `GET`, `HEAD` et `OPTIONS requests`. +
+ `bytesUploaded` + + Le nombre d'octets téléchargés vers votre origine avec CloudFront à l'aide requests `POST` et `PUT`. +
+ `totalErrorRate` + + Pourcentage de toutes requests pour lesquelles le code d'état HTTP est `4xx` ou `5xx`. +
+ `4xxErrorRate` + + Pourcentage de toutes requests pour lesquelles le code d’état HTTP est `4xx`. +
+ `5xxErrorRate` + + Pourcentage de toutes requests pour lesquelles le code d’état HTTP est `5xx`. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-cloudtrail-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-cloudtrail-monitoring-integration.mdx new file mode 100644 index 00000000000..f4cec435e5c --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-cloudtrail-monitoring-integration.mdx @@ -0,0 +1,192 @@ +--- +title: AWS CloudTrail monitoring Intégration +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS CloudTrail monitoring integration: how to enable it, and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration pour signaler votre événement AWS CloudTrail à New Relic. Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +## Caractéristiques + +Cette intégration collecte des informations à partir d'[AWS CloudTrail](https://aws.amazon.com/documentation/cloudtrail/), qui capture et enregistre l'activité du compte AWS, principalement à des fins d'audit et de gouvernance. + +L'intégration AWS CloudTrail de New Relic collecte les événements qui représentent les erreurs et les connexions à la console AWS. Les erreurs vous informent des appels d'API et des services qui ont échoué, et les connexions à la console vous aident à monitorer l'activité de la console et les tentatives d'intrusion potentielles. + +Outre ces deux types de données, New Relic ne collecte aucune autre donnée. + +## Activer l'intégration [#requirements] + + + L'intégration AWS CloudTrail collecte les données de **us-east-1 region only** par défaut. Pour activer toutes les régions AWS, veuillez nous contacter à [l'adresse support.newrelic.com](https://support.newrelic.com/). + + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/amazon-integrations/get-started/connect-aws-new-relic-infrastructure-monitoring/). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation par défaut](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) pour l'intégration AWS CloudTrail : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration dans l’infrastructure, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration AWS CloudTrail. + +Cette intégration ne fournit pas de métriques : uniquement [des données d'événement](/docs/telemetry-data-platform/understand-data/new-relic-data-types/#events-new-relic). Dans notre UI infrastructure, vous pouvez utiliser la [**Events** page](/docs/infrastructure/new-relic-infrastructure/infrastructure-ui-pages/infrastructure-events-page-live-feed-every-config-change) pour afficher une chronologie de ces événements. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `InfrastructureEvent`, avec une valeur `provider` de `CloudTrail`. + +Pour obtenir des informations générales sur la manière de rechercher et d’utiliser les données d’intégration, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## événement attribut + +Voici les attributs qui peuvent être signalés avec l'événement CloudTrail : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Métadonnées + + Description +
+ `awsRegion` + + La région AWS pour laquelle la demande a été faite. +
+ `cloudTrailEventType` + + Identifie le type d’événement qui a généré l’enregistrement d’événement. Cela peut être l’une des valeurs suivantes : `AwsApiCall`, `AwsServiceEvent`, `ConsoleSignin`. +
+ `errorCode` + + L'erreur des services AWS (si la requête renvoie une erreur). Pour obtenir une liste des erreurs les plus courantes, consultez la [documentation AWS CloudTrail](https://docs.aws.amazon.com/awscloudtrail/latest/APIReference/CommonErrors.html). +
+ `errorMessage` + + Si la demande renvoie une erreur, la description de l'erreur. +
+ `eventId` + + L'identifiant unique de l'événement. +
+ `eventName` + + L'action demandée. +
+ `eventSource` + + Les services AWS pour lesquels la demande a été faite. +
+ `sourceIpAddress` + + L'adresse IP à partir de laquelle la demande a été effectuée. +
+ `userAgent` + + L'agent via lequel la demande a été effectuée, tel que la console de gestion AWS, un service AWS, les kits SDK AWS ou l'AWS CLI. +
+ `userName` + + Le nom d'utilisateur ou le nom de rôle du demandeur qui a appelé l'API dans l'événement renvoyé. +
+ +## Exemples de requêtes [#example-queries] + +Vous pouvez utiliser New Relic pour exécuter une requête sur les données AWS CloudTrail et éventuellement utiliser New Relic pour définir des alertes sur ces données. + + + + requête pour un décompte des appels d'API ayant échoué, agrégés par les services AWS auprès desquels la demande a été faite : + + ``` + SELECT count(*) from InfrastructureEvent WHERE provider = 'CloudTrail' + AND cloudTrailEventType = 'AwsApiCall' + FACET eventSource + ``` + + + + Requête pour trouver toutes les erreurs de connexion à la console : + + ``` + SELECT * from InfrastructureEvent WHERE provider = 'CloudTrail' + AND cloudTrailEventType = 'AwsConsoleSignIn' + AND errorMessage IS NOT NULL + ``` + + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-connect-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-connect-monitoring-integration.mdx new file mode 100644 index 00000000000..15ea77345c1 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-connect-monitoring-integration.mdx @@ -0,0 +1,379 @@ +--- +title: Intégration monitoring AWS Connect +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Connect monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données AWS Connect à New Relic. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration AWS Connect : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez une intégration. + +Les données sont jointes au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ ContactFlow + + `AwsConnectContactFlowSample` + + `AwsConnectContactFlow` +
+ exemple + + `AwsConnectInstanceSample` + + `AwsConnectInstance` +
+ File d'attente + + `AwsConnectQueueSample` + + `AwsConnectQueue` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données AWS Connect pour ContactFlow, l'instance et la file d'attente. + +### Connecter les données ContactFlow [#contactflow-data] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `callRecordingUploadError` + + Compter + + Nombre d'enregistrements d'appels qui n'ont pas pu être téléchargés dans le compartiment Amazon S3 configuré pour votre instance. +
+ `contactFlowErrors` + + Compter + + Le nombre de fois que la branche d'erreur d'un flux de contact a été exécutée. +
+ `contactFlowFatalErrors` + + Compter + + Nombre de fois qu'un flux de contact n'a pas pu s'exécuter en raison d'une erreur système. +
+ `misconfiguredPhoneNumbers` + + Compter + + Le nombre d'appels qui ont échoué parce que le numéro de téléphone n'est pas associé à un flux de contact. +
+ `publicSigningKeyUsage` + + Compter + + Nombre de fois qu'une clé de sécurité de flux de contact (clé de signature publique) a été utilisée pour crypter les entrées des clients dans un flux de contact. +
+ +### Connecter les données d'instance [#instance-data] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `callsBreachingConcurrencyQuota` + + Compter + + Le nombre total d'appels vocaux qui ont dépassé le quota d'appels simultanés pour l'instance. +
+ `callsPerInterval` + + Compter + + Le nombre d'appels vocaux, entrants et sortants, reçus ou passés par seconde dans l'instance. +
+ `concurrentCalls` + + Compter + + Le nombre d'appels vocaux actifs simultanés dans l'instance. +
+ `concurrentCallsPercentage` + + Pour cent + + Pourcentage du quota de service d'appels vocaux actifs simultanés utilisé dans l'instance. +
+ `missedCalls` + + Compter + + Le nombre d'appels vocaux manqués par les agents pendant l'intervalle d'actualisation sélectionné +
+ `throttledCalls` + + Compter + + Nombre d'appels vocaux rejetés car le débit d'appels par seconde dépassait le quota maximal pris en charge. +
+ +### Données de la file d'attente de connexion [#queue-data] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `callBackNotDialableNumber` + + Compter + + Nombre de fois qu'un rappel en file d'attente vers un client n'a pas pu être composé car le numéro du client se trouve dans un pays pour lequel les appels sortants ne sont pas autorisés pour l'instance. +
+ `longestQueueWaitTime` + + Secondes + + La durée la plus longue, en secondes, pendant laquelle un contact a attendu dans une file d'attente. +
+ `queueCapacityExceededError` + + Compter + + Le nombre d’appels qui ont été rejetés parce que la file d’attente était pleine. +
+ `queueSize` + + Compter + + Le nombre de contacts dans la file d'attente. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-direct-connect-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-direct-connect-monitoring-integration.mdx new file mode 100644 index 00000000000..eda4bfc07e4 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-direct-connect-monitoring-integration.mdx @@ -0,0 +1,209 @@ +--- +title: Intégration monitoring AWS Direct Connect +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Direct Connect monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +New Relic propose une intégration pour générer des rapports sur vos données [AWS Direct Connect](https://aws.amazon.com/directconnect/) . Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration AWS Direct Connect : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez une intégration. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Connexion + + `AwsDirectConnectConnectionSample` + + `AwsDirectConnectConnection` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données AWS Direct Connect pour la connexion. + +### Données de connexion à connexion directe + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `connectionState` + + Compter + + L'état de la connexion. `0` indique BAS et `1` indique HAUT. +
+ `connectionBpsEgress` + + Bits par seconde + + Le débit binaire des données sortantes du côté AWS de la connexion. Le nombre indiqué est l'agrégat sur la période spécifiée (5 minutes par défaut, 1 minute minimum). +
+ `connectionBpsIngress` + + Bits par seconde + + Le débit binaire des données entrantes vers le côté AWS de la connexion. Le nombre indiqué est l'agrégat sur la période spécifiée (5 minutes par défaut, 1 minute minimum). +
+ `connectionPpsEgress` + + Compter par seconde + + Le débit de paquets pour les données sortantes du côté AWS de la connexion. Le nombre indiqué est l'agrégat sur la période spécifiée (5 minutes par défaut, 1 minute minimum). +
+ `connectionPpsIngress` + + Compter par seconde + + Le débit de paquets pour les données entrantes vers le côté AWS de la connexion. Le nombre indiqué est l'agrégat sur la période spécifiée (5 minutes par défaut, 1 minute minimum). +
+ `connectionCRCErrorCount` + + Compter + + Nombre de fois où des erreurs de contrôle de redondance cyclique (CRC) sont observées pour les données reçues sur le périphérique AWS. Cette métrique est un compteur qui peut rester le même pendant une période prolongée car il n'est réinitialisé que lorsque l'appareil est réinitialisé. Si cette valeur n’augmente pas, aucune erreur ne se produit. +
+ `connectionLightLevelTx` + + Compter + + Indique l'état de la connexion fibre pour le trafic de sortie (sortant) du côté AWS de la connexion. Cette métrique est disponible uniquement pour les connexions avec des vitesses de port de 10 Gbit/s. +
+ `connectionLightLevelRx` + + Compter + + Indique l'état de la connexion fibre pour le trafic entrant (entrant) vers le côté AWS de la connexion. Cette métrique est disponible uniquement pour les connexions avec des vitesses de port de 10 Gbit/s. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-documentdb-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-documentdb-monitoring-integration.mdx new file mode 100644 index 00000000000..53d2a058ef7 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-documentdb-monitoring-integration.mdx @@ -0,0 +1,1265 @@ +--- +title: Intégration monitoring Amazon DocumentDB +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS DocumentDB monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +New Relic propose une intégration pour générer des rapports sur vos données [Amazon DocumentDB](https://aws.amazon.com/documentdb/) . Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration Amazon DocumentDB : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez une intégration. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Cluster + + `AwsDocDbClusterSample` + + `AwsDocDbCluster` +
+ ClusterParRôle + + `AwsDocDbClusterByRoleSample` + + `AwsDocDbClusterByRole` +
+ exemple + + `AwsDocDbInstanceSample` + + `AwsDocDbInstance` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données Amazon DocumentDB pour Cluster, ClusterByRole et l'instance. + +### Données Cluster DocumentDB + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `CPUUtilization` + + Pour cent + + Le pourcentage de CPU utilisé par une instance. +
+ `DatabaseConnections` + + Compter + + Le nombre de connexions à une instance. +
+ `FreeLocalStorage` + + Octets + + Cette métrique indique la quantité de stockage disponible pour chaque instance pour les tables temporaires et le log. Cette valeur dépend de la classe d'instance. Vous pouvez augmenter la quantité d'espace de stockage libre pour une instance en choisissant une classe d'instance plus grande pour votre instance. +
+ `FreeableMemory` + + Octets + + La quantité de mémoire vive disponible, en octets. +
+ `WriteIOPS` + + Compter par seconde + + Le nombre moyen d'opérations I/O d'écriture sur disque par seconde. Les IOPS en lecture et en écriture sont signalées séparément, à des intervalles d'une minute. +
+ `ReadIOPS` + + Compter par seconde + + Nombre moyen d'opérations I/O de lecture de disque par seconde. Amazon DocumentDB signale les IOPS en lecture et en écriture séparément et à des intervalles d'une minute. +
+ `WriteLatency` + + Millisecondes + + La durée moyenne, en millisecondes, nécessaire à chaque opération I/O sur disque. +
+ `ReadLatency` + + Millisecondes + + La durée moyenne nécessaire par opération I/O de disque, en millisecondes. +
+ `WriteThroughput` + + Octets + + Le nombre moyen d'octets écrits sur le disque par seconde. +
+ `ReadThroughput` + + Octets + + Le nombre moyen d'octets lus sur le disque par seconde. +
+ `NetworkThroughput` + + Octets + + La quantité de débit réseau, en octets par seconde, reçue et transmise aux clients par chaque instance du cluster Amazon DocumentDB. Ce débit n'inclut pas le trafic réseau entre l'instance du cluster et le volume cluster . +
+ `NetworkTransmitThroughput` + + Octets + + La quantité de débit réseau, en octets par seconde, envoyée aux clients par chaque instance du cluster. Ce débit n'inclut pas le trafic réseau entre l'instance du cluster et le volume cluster . +
+ `NetworkReceiveThroughput` + + Octets + + La quantité de débit réseau, en octets par seconde, reçue des clients par chaque instance du cluster. Ce débit n'inclut pas le trafic réseau entre l'instance du cluster et le volume cluster . +
+ `EngineUptime` + + Secondes + + La durée, en secondes, pendant laquelle l'instance a été exécutée. +
+ `SwapUsage` + + Octets + + La quantité d'espace de swap utilisée sur l'instance. +
+ `DiskQueueDepth` + + Compter + + Le nombre de requests de lecture/écriture en attente d'accès au disque. +
+ `BufferCacheHitRatio` + + Pour cent + + Le pourcentage de requests traitées par le cache tampon. +
+ `BackupRetentionPeriodStorageUsed` + + Octets + + Quantité totale de stockage de sauvegarde en Gio utilisée pour prendre en charge la fonctionnalité de restauration à un instant donné dans la fenêtre de conservation d'Amazon DocumentDB. Inclus dans le total rapporté par la métrique TotalBackupStorageBilled. calculer séparément pour chaque cluster Amazon DocumentDB. +
+ `SnapshotStorageUsed` + + Octets + + Quantité totale de stockage de sauvegarde en Gio consommée par tous les instantanés pour un cluster Amazon DocumentDB donné en dehors de sa fenêtre de conservation de sauvegarde. Inclus dans le total rapporté par la métrique TotalBackupStorageBilled. calculer séparément pour chaque cluster Amazon DocumentDB. +
+ `TotalBackupStorageBilled` + + Octets + + La quantité totale de stockage de sauvegarde en Gio pour laquelle vous êtes facturé pour un cluster Amazon DocumentDB donné. Inclut le stockage de sauvegarde mesuré par les métriques BackupRetentionPeriodStorageUsed et SnapshotStorageUsed. calculer séparément pour chaque cluster Amazon DocumentDB. +
+ `DBInstanceReplicaLag` + + Millisecondes + + La quantité de décalage, en millisecondes, lors de la réplication des mises à jour de l'instance principale vers une instance de réplique. +
+ `DBClusterReplicaLagMaximum` + + Millisecondes + + La quantité maximale de décalage, en millisecondes, entre l'instance principale et chaque instance Amazon DocumentDB du cluster. +
+ `DBClusterReplicaLagMinimum` + + Millisecondes + + La quantité minimale de décalage, en millisecondes, entre l'instance principale et chaque instance de réplica dans le cluster. +
+ `VolumeBytesUsed` + + Octets + + La quantité de stockage, en octets, utilisée par votre cluster, en octets. Cette valeur affecte le coût du cluster (pour plus d'informations sur les prix, consultez la page produit Amazon DocumentDB). +
+ `VolumeReadIOPs` + + Compter + + Nombre moyen d'opérations d'I/O de lecture facturées à partir d'un volume cluster , signalé à des intervalles de 5 minutes. Les opérations de lecture facturées sont calculées au niveau du volume cluster , agrégées à partir de toutes les instances du cluster, puis signalées à des intervalles de 5 minutes. La valeur est calculée en prenant la valeur de la métrique des opérations de lecture sur une période de 5 minutes. Vous pouvez déterminer le nombre d'opérations de lecture facturées par seconde en prenant la valeur de la métrique des opérations de lecture facturées et en la divisant par 300 secondes. Par exemple, si les opérations de lecture facturées renvoient 13 686, alors les opérations de lecture facturées par seconde sont de 45 (13 686 / 300 = 45,62). Vous accumulez des opérations de lecture facturées pour les requêtes qui demandent des pages de base de données qui ne sont pas présentes dans le cache tampon et doivent donc être chargées à partir du stockage. Vous pouvez constater des pics dans les opérations de lecture facturées lorsque les résultats de la requête sont lus à partir du stockage, puis chargés dans le cache tampon. +
+ `VolumeWriteIOPs` + + Compter + + Nombre moyen d'opérations d'I/O d'écriture facturées à partir d'un volume cluster , signalé à des intervalles de 5 minutes. Les opérations d'écriture facturées sont calculées au niveau du volume cluster , agrégées à partir de toutes les instances du cluster, puis signalées à des intervalles de 5 minutes. La valeur est calculée en prenant la valeur de la métrique des opérations d'écriture sur une période de 5 minutes. Vous pouvez déterminer le nombre d'opérations d'écriture facturées par seconde en prenant la valeur de la métrique des opérations d'écriture facturées et en la divisant par 300 secondes. Par exemple, si les opérations d'écriture facturées renvoient 13 686, alors les opérations d'écriture facturées par seconde sont de 45 (13 686 / 300 = 45,62). +
+ +### Données DocumentDB ClusterByRole + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `CPUUtilization` + + Pour cent + + Le pourcentage de CPU utilisé par une instance. +
+ `DatabaseConnections` + + Compter + + Le nombre de connexions à une instance. +
+ `FreeLocalStorage` + + Octets + + Cette métrique indique la quantité de stockage disponible pour chaque instance pour les tables temporaires et le log. Cette valeur dépend de la classe d'instance. Vous pouvez augmenter la quantité d'espace de stockage libre pour une instance en choisissant une classe d'instance plus grande pour votre instance. +
+ `FreeableMemory` + + Octets + + La quantité de mémoire vive disponible, en octets. +
+ `WriteIOPS` + + Compter par seconde + + Le nombre moyen d'opérations I/O d'écriture sur disque par seconde. Les IOPS en lecture et en écriture sont signalées séparément, à des intervalles d'une minute. +
+ `ReadIOPS` + + Compter par seconde + + Nombre moyen d'opérations I/O de lecture de disque par seconde. Amazon DocumentDB signale les IOPS en lecture et en écriture séparément et à des intervalles d'une minute. +
+ `WriteLatency` + + Millisecondes + + La durée moyenne, en millisecondes, nécessaire à chaque opération I/O sur disque. +
+ `ReadLatency` + + Millisecondes + + La durée moyenne nécessaire par opération I/O de disque, en millisecondes. +
+ `WriteThroughput` + + Octets + + Le nombre moyen d'octets écrits sur le disque par seconde. +
+ `ReadThroughput` + + Octets + + Le nombre moyen d'octets lus sur le disque par seconde. +
+ `NetworkThroughput` + + Octets + + La quantité de débit réseau, en octets par seconde, reçue et transmise aux clients par chaque instance du cluster Amazon DocumentDB. Ce débit n'inclut pas le trafic réseau entre l'instance du cluster et le volume cluster . +
+ `NetworkTransmitThroughput` + + Octets + + La quantité de débit réseau, en octets par seconde, envoyée aux clients par chaque instance du cluster. Ce débit n'inclut pas le trafic réseau entre l'instance du cluster et le volume cluster . +
+ `NetworkReceiveThroughput` + + Octets + + La quantité de débit réseau, en octets par seconde, reçue des clients par chaque instance du cluster. Ce débit n'inclut pas le trafic réseau entre l'instance du cluster et le volume cluster . +
+ `EngineUptime` + + Secondes + + La durée, en secondes, pendant laquelle l'instance a été exécutée. +
+ `SwapUsage` + + Octets + + La quantité d'espace de swap utilisée sur l'instance. +
+ `DiskQueueDepth` + + Compter + + Le nombre de requests de lecture/écriture en attente d'accès au disque. +
+ `BufferCacheHitRatio` + + Pour cent + + Le pourcentage de requests traitées par le cache tampon. +
+ `BackupRetentionPeriodStorageUsed` + + Octets + + Quantité totale de stockage de sauvegarde en Gio utilisée pour prendre en charge la fonctionnalité de restauration à un instant donné dans la fenêtre de conservation d'Amazon DocumentDB. Inclus dans le total rapporté par la métrique TotalBackupStorageBilled. calculer séparément pour chaque cluster Amazon DocumentDB. +
+ `SnapshotStorageUsed` + + Octets + + Quantité totale de stockage de sauvegarde en Gio consommée par tous les instantanés pour un cluster Amazon DocumentDB donné en dehors de sa fenêtre de conservation de sauvegarde. Inclus dans le total rapporté par la métrique TotalBackupStorageBilled. calculer séparément pour chaque cluster Amazon DocumentDB. +
+ `TotalBackupStorageBilled` + + Octets + + La quantité totale de stockage de sauvegarde en Gio pour laquelle vous êtes facturé pour un cluster Amazon DocumentDB donné. Inclut le stockage de sauvegarde mesuré par les métriques BackupRetentionPeriodStorageUsed et SnapshotStorageUsed. calculer séparément pour chaque cluster Amazon DocumentDB. +
+ `DBInstanceReplicaLag` + + Millisecondes + + La quantité de décalage, en millisecondes, lors de la réplication des mises à jour de l'instance principale vers une instance de réplique. +
+ `DBClusterReplicaLagMaximum` + + Millisecondes + + La quantité maximale de décalage, en millisecondes, entre l'instance principale et chaque instance Amazon DocumentDB du cluster. +
+ `DBClusterReplicaLagMinimum` + + Millisecondes + + La quantité minimale de décalage, en millisecondes, entre l'instance principale et chaque instance de réplica dans le cluster. +
+ `VolumeBytesUsed` + + Octets + + La quantité de stockage, en octets, utilisée par votre cluster, en octets. Cette valeur affecte le coût du cluster (pour plus d'informations sur les prix, consultez la page produit Amazon DocumentDB). +
+ `VolumeReadIOPs` + + Compter + + Nombre moyen d'opérations d'I/O de lecture facturées à partir d'un volume cluster , signalé à des intervalles de 5 minutes. Les opérations de lecture facturées sont calculées au niveau du volume cluster , agrégées à partir de toutes les instances du cluster, puis signalées à des intervalles de 5 minutes. La valeur est calculée en prenant la valeur de la métrique des opérations de lecture sur une période de 5 minutes. Vous pouvez déterminer le nombre d'opérations de lecture facturées par seconde en prenant la valeur de la métrique des opérations de lecture facturées et en la divisant par 300 secondes. Par exemple, si les opérations de lecture facturées renvoient 13 686, alors les opérations de lecture facturées par seconde sont de 45 (13 686 / 300 = 45,62). Vous accumulez des opérations de lecture facturées pour les requêtes qui demandent des pages de base de données qui ne sont pas présentes dans le cache tampon et doivent donc être chargées à partir du stockage. Vous pouvez constater des pics dans les opérations de lecture facturées lorsque les résultats de la requête sont lus à partir du stockage, puis chargés dans le cache tampon. +
+ `VolumeWriteIOPs` + + Compter + + Nombre moyen d'opérations d'I/O d'écriture facturées à partir d'un volume cluster , signalé à des intervalles de 5 minutes. Les opérations d'écriture facturées sont calculées au niveau du volume cluster , agrégées à partir de toutes les instances du cluster, puis signalées à des intervalles de 5 minutes. La valeur est calculée en prenant la valeur de la métrique des opérations d'écriture sur une période de 5 minutes. Vous pouvez déterminer le nombre d'opérations d'écriture facturées par seconde en prenant la valeur de la métrique des opérations d'écriture facturées et en la divisant par 300 secondes. Par exemple, si les opérations d'écriture facturées renvoient 13 686, alors les opérations d'écriture facturées par seconde sont de 45 (13 686 / 300 = 45,62). +
+ +### Données d'instance DocumentDB + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `CPUUtilization` + + Pour cent + + Le pourcentage de CPU utilisé par une instance. +
+ `DatabaseConnections` + + Compter + + Le nombre de connexions à une instance. +
+ `FreeLocalStorage` + + Octets + + Cette métrique indique la quantité de stockage disponible pour chaque instance pour les tables temporaires et le log. Cette valeur dépend de la classe d'instance. Vous pouvez augmenter la quantité d'espace de stockage libre pour une instance en choisissant une classe d'instance plus grande pour votre instance. +
+ `FreeableMemory` + + Octets + + La quantité de mémoire vive disponible, en octets. +
+ `WriteIOPS` + + Compter par seconde + + Le nombre moyen d'opérations I/O d'écriture sur disque par seconde. Les IOPS en lecture et en écriture sont signalées séparément, à des intervalles d'une minute. +
+ `ReadIOPS` + + Compter par seconde + + Nombre moyen d'opérations I/O de lecture de disque par seconde. Amazon DocumentDB signale les IOPS en lecture et en écriture séparément et à des intervalles d'une minute. +
+ `WriteLatency` + + Millisecondes + + La durée moyenne, en millisecondes, nécessaire à chaque opération I/O sur disque. +
+ `ReadLatency` + + Millisecondes + + La durée moyenne nécessaire par opération I/O de disque, en millisecondes. +
+ `WriteThroughput` + + Octets + + Le nombre moyen d'octets écrits sur le disque par seconde. +
+ `ReadThroughput` + + Octets + + Le nombre moyen d'octets lus sur le disque par seconde. +
+ `NetworkThroughput` + + Octets + + La quantité de débit réseau, en octets par seconde, reçue et transmise aux clients par chaque instance du cluster Amazon DocumentDB. Ce débit n'inclut pas le trafic réseau entre l'instance du cluster et le volume cluster . +
+ `NetworkTransmitThroughput` + + Octets + + La quantité de débit réseau, en octets par seconde, envoyée aux clients par chaque instance du cluster. Ce débit n'inclut pas le trafic réseau entre l'instance du cluster et le volume cluster . +
+ `NetworkReceiveThroughput` + + Octets + + La quantité de débit réseau, en octets par seconde, reçue des clients par chaque instance du cluster. Ce débit n'inclut pas le trafic réseau entre l'instance du cluster et le volume cluster . +
+ `EngineUptime` + + Secondes + + La durée, en secondes, pendant laquelle l'instance a été exécutée. +
+ `SwapUsage` + + Octets + + La quantité d'espace de swap utilisée sur l'instance. +
+ `DiskQueueDepth` + + Compter + + Le nombre de requests de lecture/écriture en attente d'accès au disque. +
+ `BufferCacheHitRatio` + + Pour cent + + Le pourcentage de requests traitées par le cache tampon. +
+ `BackupRetentionPeriodStorageUsed` + + Octets + + Quantité totale de stockage de sauvegarde en Gio utilisée pour prendre en charge la fonctionnalité de restauration à un instant donné dans la fenêtre de conservation d'Amazon DocumentDB. Inclus dans le total rapporté par la métrique TotalBackupStorageBilled. calculer séparément pour chaque cluster Amazon DocumentDB. +
+ `SnapshotStorageUsed` + + Octets + + Quantité totale de stockage de sauvegarde en Gio consommée par tous les instantanés pour un cluster Amazon DocumentDB donné en dehors de sa fenêtre de conservation de sauvegarde. Inclus dans le total rapporté par la métrique TotalBackupStorageBilled. calculer séparément pour chaque cluster Amazon DocumentDB. +
+ `TotalBackupStorageBilled` + + Octets + + La quantité totale de stockage de sauvegarde en Gio pour laquelle vous êtes facturé pour un cluster Amazon DocumentDB donné. Inclut le stockage de sauvegarde mesuré par les métriques BackupRetentionPeriodStorageUsed et SnapshotStorageUsed. calculer séparément pour chaque cluster Amazon DocumentDB. +
+ `DBInstanceReplicaLag` + + Millisecondes + + La quantité de décalage, en millisecondes, lors de la réplication des mises à jour de l'instance principale vers une instance de réplique. +
+ `DBClusterReplicaLagMaximum` + + Millisecondes + + La quantité maximale de décalage, en millisecondes, entre l'instance principale et chaque instance Amazon DocumentDB du cluster. +
+ `DBClusterReplicaLagMinimum` + + Millisecondes + + La quantité minimale de décalage, en millisecondes, entre l'instance principale et chaque instance de réplica dans le cluster. +
+ `VolumeBytesUsed` + + Octets + + La quantité de stockage, en octets, utilisée par votre cluster, en octets. Cette valeur affecte le coût du cluster (pour plus d'informations sur les prix, consultez la page produit Amazon DocumentDB). +
+ `VolumeReadIOPs` + + Compter + + Nombre moyen d'opérations d'I/O de lecture facturées à partir d'un volume cluster , signalé à des intervalles de 5 minutes. Les opérations de lecture facturées sont calculées au niveau du volume cluster , agrégées à partir de toutes les instances du cluster, puis signalées à des intervalles de 5 minutes. La valeur est calculée en prenant la valeur de la métrique des opérations de lecture sur une période de 5 minutes. Vous pouvez déterminer le nombre d'opérations de lecture facturées par seconde en prenant la valeur de la métrique des opérations de lecture facturées et en la divisant par 300 secondes. Par exemple, si les opérations de lecture facturées renvoient 13 686, alors les opérations de lecture facturées par seconde sont de 45 (13 686 / 300 = 45,62). Vous accumulez des opérations de lecture facturées pour les requêtes qui demandent des pages de base de données qui ne sont pas présentes dans le cache tampon et doivent donc être chargées à partir du stockage. Vous pouvez constater des pics dans les opérations de lecture facturées lorsque les résultats de la requête sont lus à partir du stockage, puis chargés dans le cache tampon. +
+ `VolumeWriteIOPs` + + Compter + + Nombre moyen d'opérations d'I/O d'écriture facturées à partir d'un volume cluster , signalé à des intervalles de 5 minutes. Les opérations d'écriture facturées sont calculées au niveau du volume cluster , agrégées à partir de toutes les instances du cluster, puis signalées à des intervalles de 5 minutes. + + La valeur est calculée en prenant la valeur de la métrique des opérations d'écriture sur une période de 5 minutes. Vous pouvez déterminer le nombre d'opérations d'écriture facturées par seconde en prenant la valeur de la métrique des opérations d'écriture facturées et en la divisant par 300 secondes. + + Par exemple, si les opérations d'écriture facturées renvoient 13 686, alors les opérations d'écriture facturées par seconde sont de 45 (13 686 / 300 = 45,62). +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-dynamodb-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-dynamodb-monitoring-integration.mdx new file mode 100644 index 00000000000..140b7244b58 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-dynamodb-monitoring-integration.mdx @@ -0,0 +1,575 @@ +--- +title: Intégration monitoring Amazon DynamoDB +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS DynamoDB monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration pour la création de rapports sur les données Amazon DynamoDB vers New Relic. Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +## Caractéristiques + +Amazon DynamoDB est une base de données cloud NoSQL entièrement gérée qui prend en charge les modèles de magasin de documents et de valeurs clés. Avec l'intégration New Relic DynamoDB, vous pouvez rapidement comprendre comment la latence des requêtes ou les erreurs affectent votre environnement. Vous recevrez [des mesures](#metrics) sur les performances de la base de données, l'état du service et les métadonnées de l'hôte. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation par défaut](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) pour l'intégration Amazon DynamoDB : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : [1 minute ou 5 minutes](http://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/dynamo-metricscollected.html), selon les statistiques + +## Afficher et utiliser les données [#find-data] + +Pour [afficher et utiliser vos données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data), accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration Amazon DynamodDB. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) à l'aide du [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `DatastoreSample` , avec une valeur `provider` de `DynamoDbTable` pour les tables DynamoDB, `DynamoDbRegion` pour les régions ou `DynamoDbGlobalSecondaryIndex` pour les index secondaires globaux DynamoDB. + +## données métriques [#metrics] + +L'intégration New Relic Amazon DynamoDB collecte les données métriques suivantes : + + + Les données indiquées par un astérisque `*` ne sont récupérées que si [la collecte d'inventaire étendue](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations#extended) est activée. + + +### Table DynamoDb + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ + **Metric** + + + + **Description** + +
+ `batchGetSuccessfulRequestLatency` + + Temps écoulé pour requests d'opération BatchGetItem réussies, en millisecondes. +
+ `batchGetThrottledRequests` + + requests d’opération BatchGetItem dépassent les limites de débit provisionnées sur une table. +
+ `batchWriteSuccessfulRequestLatency` + + Temps écoulé pour requests d'opération BatchWriteItem réussies, en millisecondes. +
+ `batchWriteThrottledRequests` + + requests d’opération BatchWriteItem dépassent les limites de débit provisionnées sur une table. +
+ `conditionalCheckFailedRequests` + + Le nombre de tentatives infructueuses d'exécution d'écritures conditionnelles. +
+ `consumedReadCapacityUnits` + + Le nombre d'unités de capacité de lecture consommées sur la période spécifiée, pour suivre la quantité de débit provisionné utilisée. +
+ `consumedWriteCapacityUnits` + + Le nombre d'unités de capacité d'écriture consommées sur la période spécifiée, pour suivre la quantité de débit provisionné utilisée. +
+ `deleteSuccessfulRequestLatency` + + Temps écoulé pour requests d'opération de suppression réussies, en millisecondes. +
+ `deleteThrottledRequests` + + Supprimez requests d’opération qui dépassent les limites de débit provisionnées sur une table. +
+ `getSuccessfulRequestLatency` + + Temps écoulé pour requests d'opération Get réussies, en millisecondes. +
+ `getThrottledRequests` + + Obtenez requests d’opération qui dépassent les limites de débit provisionnées sur une table. +
+ `pendingReplicationCount*` + + Le nombre de mises à jour d'éléments écrites dans une table de réplique, mais qui n'ont pas encore été écrites dans une autre réplique de la table globale. +
+ `provisionedReadCapacityUnits` + + Le nombre d'unités de capacité de lecture provisionnées pour une table. +
+ `provisionedWriteCapacityUnits` + + Le nombre d'unités de capacité d'écriture provisionnées pour une table. +
+ `putSuccessfulRequestLatency` + + Temps écoulé pour requests d'opération Put réussies, en millisecondes. +
+ `putThrottledRequests` + + Placez requests d’opération qui dépassent les limites de débit provisionnées sur une table. +
+ `queryReturnedItemCount` + + Le nombre d'éléments renvoyés par les opérations de requête. +
+ `querySuccessfulRequestLatency` + + Temps écoulé pour requests d'opération de requête réussies, en millisecondes. +
+ `queryThrottledRequests` + + Requête d'opération qui dépasse les limites de débit provisionnées sur une table. +
+ `readThrottleEvents` + + Requêtes adressées à DynamoDB qui dépassent les unités de capacité de lecture provisionnées pour une table. +
+ `replicationLatency`\* + + Le temps écoulé entre l'apparition d'un élément mis à jour dans le flux DynamoDB pour une table de réplication et l'apparition de cet élément dans une autre réplication de la table globale, en millisecondes. +
+ `scanReturnedItemCount` + + Le nombre d’éléments renvoyés par les opérations d’analyse. +
+ `scanSuccessfulRequestLatency` + + Temps écoulé pour requests d'opération d'analyse réussies, en millisecondes. +
+ `scanThrottledRequests` + + requests d'opération d'analyse qui dépassent les limites de débit provisionnées sur une table. +
+ `batchGetSystemErrors` + + `BatchGetItem` requests d'opération qui génèrent un code d'état HTTP 500. +
+ `batchWriteSystemErrors` + + `BatchWriteItem` requests d'opération qui génèrent un code d'état HTTP 500. +
+ `deleteSystemErrors` + + `DeleteItem` requests d'opération qui génèrent un code d'état HTTP 500. +
+ `getSystemErrors` + + `GetItem` requests d'opération qui génèrent un code d'état HTTP 500. +
+ `putSystemErrors` + + `PutItem` requests d'opération qui génèrent un code d'état HTTP 500. +
+ `querySystemErrors` + + `Query` requests d'opération qui génèrent un code d'état HTTP 500. +
+ `scanSystemErrors` + + `Scan` requests d'opération qui génèrent un code d'état HTTP 500. +
+ `updateSystemErrors` + + `UpdateItem` requests d'opération qui génèrent un code d'état HTTP 500. +
+ `updateSuccessfulRequestLatency` + + Temps écoulé pour requests d'opération de mise à jour réussies, en millisecondes. +
+ `updateThrottledRequests` + + Mettre à jour requests d'opération qui dépassent les limites de débit provisionnées sur une table. +
+ `writeThrottleEvents` + + Requêtes adressées à DynamoDB qui dépassent les unités de capacité d'écriture provisionnées pour une table. +
+ +### Région DynamoDb + +Cet exemple limite les données à une région AWS particulière. Il est utilisé avec des métriques provenant de tables de réplication dans une table globale DynamoDB. + + + + + + + + + + + + + + + + + + + + + + + +
+ + **Metric** + + + + **Description** + +
+ `systemErrors` + + Requêtes qui génèrent un code d'état HTTP 500. +
+ `userErrors` + + Requêtes générant un code d'état HTTP 400 +
+ +### Index secondaire global DynamoDb + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ + **Metric** + + + + **Description** + +
+ `consumedReadCapacityUnits` + + Le nombre d'unités de capacité de lecture consommées sur la période spécifiée, pour suivre la quantité de débit provisionné utilisée. +
+ `consumedWriteCapacityUnits` + + Le nombre d'unités de capacité d'écriture consommées sur la période spécifiée, pour suivre la quantité de débit provisionné utilisée. +
+ `onlineIndexConsumedWriteCapacity` + + Le nombre d'unités de capacité d'écriture consommées lors de l'ajout d'un nouvel index secondaire global à une table. +
+ `onlineIndexPercentageProgress` + + Le pourcentage d'achèvement lorsqu'un nouvel index secondaire global est ajouté à une table. +
+ `onlineIndexThrottleEvents` + + Le nombre d'événements de limitation d'écriture qui se produisent lors de l'ajout d'un nouvel index secondaire global à une table. +
+ `provisionedReadCapacityUnits` + + Le nombre d'unités de capacité de lecture provisionnées pour un index secondaire global. +
+ `provisionedWriteCapacityUnits` + + Le nombre d'unités de capacité d'écriture provisionnées pour une table. +
+ `readThrottleEvents` + + Requêtes adressées à DynamoDB qui dépassent les unités de capacité de lecture provisionnées pour une table. +
+ `writeThrottleEvents` + + Requêtes adressées à DynamoDB qui dépassent les unités de capacité d'écriture provisionnées pour une table. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-ebs-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-ebs-monitoring-integration.mdx new file mode 100644 index 00000000000..35ab5091f41 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-ebs-monitoring-integration.mdx @@ -0,0 +1,151 @@ +--- +title: Intégration monitoring Amazon EBS +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS EBS monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration Amazon EBS pour signaler vos données EBS à New Relic. Nous expliquons ici comment activer notre intégration et quelles données peuvent être signalées. + +## Caractéristiques + +[Amazon Elastic Block Store](https://aws.amazon.com/ebs/) (EBS) fournit des volumes de stockage au niveau du bloc pour vos instances Amazon EC2. Avec l'intégration EBS de New Relic, vous pourrez monitorer les écritures par volume, le nombre de volumes, les options configuration , etc. Vous pourrez créer des graphiques personnalisés de vos données et [créer des conditions d'alerte](/docs/infrastructure/new-relic-infrastructure/infrastructure-alert-conditions/infrastructure-alerts-add-edit-or-view-host-alert-information) en fonction des modifications des données ou configuration EBS. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration Amazon EBS : + +* Intervalle d'interrogation de New Relic : 15 minutes +* Intervalle de données Amazon CloudWatch : [1 minute ou 5 minutes](http://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/ebs-metricscollected.html), selon le type de volume + +## Rechercher et utiliser des données [#find-data] + +Pour trouver les données de cette intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration Amazon EBS. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `BlockDeviceSample`, avec une valeur `provider` de `EbsVolume`. + +Pour en savoir plus sur la recherche et l’utilisation des données d’intégration, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration de New Relic Infrastructure collecte les données Amazon EBS suivantes : + + + Pour une description complète de chaque métrique, consultez [les Dimensions et Métriques EBS d'Amazon](http://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/ebs-metricscollected.html). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Type de données +
+ `volumeReadBytes` + + `volumeWriteBytes` + + octets +
+ `volumeReadOps` + + `volumeWriteOps` + + entier/nombre +
+ `volumeTotalReadTime` + + `volumeTotalWriteTime` + + secondes +
+ `volumeIdleTime` + + secondes +
+ `volumeQueueLength` + + entier/nombre +
+ `volumeThroughputPercentage` + + pour cent +
+ `volumeConsumedReadWriteOps` + + compter +
+ `burstBalance` + + pour cent +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-ec2-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-ec2-monitoring-integration.mdx new file mode 100644 index 00000000000..4754293dc51 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-ec2-monitoring-integration.mdx @@ -0,0 +1,186 @@ +--- +title: Amazon EC2 monitoring Intégration +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon EC2 integration: how to enable it, and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration monitoring et d'infrastructure New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration Amazon Elastic calculer Cloud (EC2) pour rapporter vos métadonnées EC2 à New Relic. Ce document explique la fonctionnalité de l'intégration, comment l'activer et quelles données peuvent être signalées. + +## Caractéristiques [#about] + +[EC2 d'Amazon](https://aws.amazon.com/ec2/) est un élément central de la plateforme de cloud computing d'Amazon. Tous les monitoring infrastructure utilisateurs de de New Relic, quel que soit le [https://newrelic.com/pricing](https://newrelic.com/pricing)), peut utiliser l'agent New Relic Infrastructure pour obtenir une vue complète et en temps réel des performances et de l'état de son hôte. L'intégration EC2 de New Relic utilise la [politique `ec2Describe*`](/docs/infrastructure/infrastructure-integrations/getting-started/integrations-managed-policies) pour ajouter des données à propos de vos instances EC2 à vos monitoring d'infrastructure de données standardes. Nous importons également [la balise personnaliséeAmazon EC2 ](http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/Using_Tags.html)et l'ajoutons à vos données. + +Vous pouvez également créer [des attributs personnalisés](/docs/infrastructure/new-relic-infrastructure/configuration/configure-infrastructure-agent#attributes) à analyser dans New Relic. + +## Activer l'intégration EC2 [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + + + Vous devez installer l’agent d’infrastructure sur chaque hôte EC2 pour voir les métriques de cet hôte. La connexion de votre compte EC2 permet à New Relic d'accéder aux métadonnées EC2, telles que la région, le type et le tag. + + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation par défaut](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) pour l'intégration Amazon EC2 : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : [1 minute ou 5 minutes](http://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/ebs-metricscollected.html), selon le forfait CloudWatch + +### Remarque sur legacy tag le format [#legacy-tag-format] + +À partir du 27 octobre 2021, les instances EC2 qui commencent à être monitorées par New Relic ont uniquement les formats [tag](/docs/new-relic-one/use-new-relic-one/core-concepts/use-tags-help-organize-find-your-data) métadonnées suivants : + +* format de balise dans UI: `tag.tagName` +* format de balise comme [attribut](/docs/using-new-relic/welcome-new-relic/get-started/glossary/#attribute): `provider.attributeName`. Exemples : `provider.ec2InstanceId`, `provider.ec2State`, `provider.ec2AmiId`. + +Pour vos instances EC2 monitorées par New Relic avant cette date, vous avez la possibilité de conserver nos legacy formats tag . To keep these formats, go into the New Relic configuration UI for your EC2 host and select **Keep legacy metadata format**. Cela vous permet d'accéder aux balises qui ont à la fois les formats actuels et legacy . La désactivation du format legacy signifie que vous ne pouvez utiliser que le format actuel. Si vous désactivez le format legacy , pensez à vérifier si vous disposez d'un dashboard ou d'une condition d'alerte utilisant ce format. + +Le legacy tag format métadonnées : + +* format tag hérité dans UI: + + * `provider.ec2Tag_tagName` + * `ec2Tag_tagName` + +* format tag hérité comme [attribut](/docs/using-new-relic/welcome-new-relic/get-started/glossary/#attribute): + * `attributeName`. Exemples : `ec2InstanceId`, `ec2State`, `ec2AmiId`. + +## Utiliser les données dans UI de New Relic [#view-ec2] + +Ce tableau décrit les emplacements où vous pouvez trouver et utiliser vos données EC2 : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Page d'UI + + Tu peux... +
+ [**System** page](/docs/infrastructure/infrastructure-ui-pages/infra-hosts-ui-page#system) + + Examinez l’utilisation globale des ressources par processeur, charge et mémoire. +
+ [**Processes** page](/docs/infrastructure/infrastructure-ui-pages/infra-hosts-ui-page/#processes) + + Monitorer le processeur, la mémoire et les processus de lecture ou d'écriture I/O . +
+ [**Network** page](/docs/infrastructure/infrastructure-ui-pages/infra-hosts-ui-page/#network) + + Affichez les données de bande passante et d’erreur pour examiner les niveaux de saturation, comparer les équilibres de charge et identifier d’autres problèmes de performances potentiels. +
+ [**Storage** page](/docs/infrastructure/infrastructure-ui-pages/infra-hosts-ui-page/#storage) + + Monitorer la capacité et l'efficacité de l'utilisation globale, de l'utilisation du disque ou des opérations I/O . +
+ [**Integrations** page](/docs/integrations/new-relic-integrations/getting-started/infrastructure-integration-dashboards-charts) + + Recherchez des liens vers plusieurs emplacements de produits où vous pouvez rechercher et utiliser les données d'intégration EC2, y compris des liens vers [la création de conditions d'alerte](/docs/infrastructure/new-relic-infrastructure/configuration/infrastructure-alerts-add-edit-or-view-host-alert-information) et [l'affichage de vos données dans New Relic](/docs/insights/new-relic-insights/using-insights-interface/viewing-your-insights-dashboards). +
+ +L'infrastructure importe également votre [balise personnaliséeAmazon EC2 ](http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/Using_Tags.html), généralement précédée de `label.`. + +Pour en savoir plus sur la recherche et l’utilisation des données d’intégration, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## Afficher et utiliser les données [#insights-ec2] + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `ComputeSample`, avec une valeur `provider` de `Ec2Instance`. + +L'intégration EC2 collecte le sous-ensemble suivant de métriques d'instance à partir d'AWS CloudWatch. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `statusCheckFailedInstance` + + Indique si l'instance a réussi le contrôle d'état de l'instance sur une période d'une minute. Le résultat du contrôle peut être `0` (réussi) ou `1` (échoué). +
+ `statusCheckFailedSystem` + + Indique si l'instance a réussi le contrôle de l'état du système sur une période d'une minute. Le résultat du contrôle peut être `0` (réussi) ou `1` (échoué). +
+ `statusCheckFailed` + + Indique si l'instance a réussi à la fois le contrôle de l'état de l'instance et le contrôle de l'état du système sur une période d'une minute. Le résultat du contrôle peut être `0` (réussi) ou `1` (échoué). +
+ +Pour en savoir plus sur les données spécifiques qui peuvent être signalées, consultez [l'attribut d'intégration EC2](/docs/infrastructure/new-relic-infrastructure/data-instrumentation/default-infrastructure-attributes-events#aws-ec2-attributes). Pour des descriptions complètes, consultez la [documentation Amazon EC2](https://aws.amazon.com/documentation/ec2/). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-ecsecr-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-ecsecr-monitoring-integration.mdx new file mode 100644 index 00000000000..0d2a7bfdfc0 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-ecsecr-monitoring-integration.mdx @@ -0,0 +1,229 @@ +--- +title: Intégration monitoring Amazon ECS/ECR +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon ECS/ECR monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +Vous pouvez signaler vos données [Amazon EC2 Container Service (ECS)](https://aws.amazon.com/documentation/ecs/) et vos données [Amazon EC2 Container Registry (ECR)](http://docs.aws.amazon.com/AmazonECR/latest/userguide/Registries.html) à New Relic. + +## Alternatives recommandées [#alternatives] + +Comme alternative privilégiée à cette intégration, vous pouvez monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. Pour ce faire, activez l’ [intégration AWS CloudWatch Metric Streams](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream). + +Nous proposons également une [intégration ECS sur hôte](/docs/integrations/elastic-container-service-integration/get-started/introduction-amazon-ecs-integration), qui rapporte un ensemble de données différent de cette intégration basée sur le cloud. + +## Aperçu de l'intégration [#overview] + +L'intégration monitoring ECS/ECR de New Relic vous permet de monitorer la capacité réservée par rapport à la capacité utilisée, l'exécution des tâches et le registre des conteneurs. Les données d'intégration AWS sont également disponibles pour [l'analyse et la création de graphiques](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure#insights). + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez notre documentation pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +Si vous avez des services exécutés sur ECS, vous pouvez également [activer monitoring de ces services](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). + + + Dans AWS, vous devez [opter](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs-account-settings.html#ecs-resource-arn-timeline) pour le nouveau format ARN ([annonce](https://aws.amazon.com/blogs/compute/migrating-your-amazon-ecs-deployment-to-the-new-arn-and-resource-id-format-2/)) pour faire la distinction entre les services portant le même nom dans différents clusters. Sinon, vous pourriez avoir une collision de données. + + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Les valeurs [d'interrogation par défaut](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) pour l'intégration Amazon ECS/ECR sont : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute ou 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver les données de cette intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration Amazon ECS/ECR. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `ComputeSample` . Utilisez une valeur `provider` de `EcsCluster` pour les données de cluster ou une valeur `provider` de `EcsService` pour les données de service de cluster. + +L'intégration collecte ces définitions ECR/ECS : + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `ClusterName` + + Cette dimension filtre les données que vous demandez pour toutes les ressources d'un cluster spécifié. Toutes les métriques Amazon ECS sont filtrées par `ClusterName`. +
+ `ServiceName` + + Cette dimension filtre les données que vous demandez pour toutes les ressources d'un service spécifié au sein d'un cluster spécifié. +
+ +Pour en savoir plus sur la recherche et l’utilisation des données d’intégration, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +L'intégration ECS/ECR collecte les données suivantes : + + + Pour une description complète de ces métriques, consultez la documentation d'Amazon sur [ECS](https://aws.amazon.com/documentation/ecs/) et [ECR](https://aws.amazon.com/documentation/ecr/). + + +### Métriques Cluster et de service + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Type de données +
+ `CPUUtilization` + + pour cent +
+ `MemoryUtilization` + + pour cent +
+ +### Métriques Cluster [#cluster] + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Type de données +
+ `CPUReservation` + + pour cent +
+ `MemoryReservation` + + pour cent +
+ +### Mesures de service [#service] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `Active Service` + + Le nombre de services exécutés sur le cluster dans un état `ACTIVE` +
+ `Pending Tasks` + + Nombre de tâches dans le cluster qui sont dans l'état `PENDING` +
+ `Running Tasks` + + Nombre de tâches dans le cluster qui sont dans l'état `RUNNING` +
+ `Registered Instances` + + Nombre d'instances de conteneur enregistrées dans le cluster +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-efs-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-efs-monitoring-integration.mdx new file mode 100644 index 00000000000..e1dcd098e0d --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-efs-monitoring-integration.mdx @@ -0,0 +1,209 @@ +--- +title: Intégration monitoring Amazon EFS +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon EFS monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration Amazon EFS pour signaler vos données EFS à New Relic. Ce document explique la fonctionnalité de l'intégration, comment l'activer et quelles données peuvent être signalées. + +## Caractéristiques [#features] + +Avec l'intégration de New Relic pour monitoring [du système de fichiers AWS Elastic (EFS)](http://docs.aws.amazon.com/efs/latest/ug/whatisefs.html), vous pouvez monitorer la taille du système de fichiers EFS, les opérations de lecture/écriture, la capacité d'I/O , le débit, etc. Les données d'intégration AWS sont également disponibles pour [l'analyse, la requête et la création de graphiques](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure#insights). + +Si vous êtes connecté via un [VPC](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-vpc-monitoring-integration), vous pouvez également utiliser le système de fichiers EFS avec vos propres serveurs sur site, ce qui vous permet de partager le système de fichiers entre différentes applications hébergées sur des solutions hybrides. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation par défaut](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) pour l'intégration Amazon EFS : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute ou 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver les données de cette intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration Amazon EFS. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `BlockDeviceSample`, avec une valeur `provider` de `EfsFileSystem`. + +Pour en savoir plus sur la recherche et l’utilisation des données d’intégration, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les métriques Amazon EFS suivantes : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `BurstCreditBalance` + + Le nombre de crédits en rafale dont dispose un système de fichiers. + + Les crédits en rafale permettent à un système de fichiers d'atteindre des niveaux de débit supérieurs au niveau de base de référence d'un système de fichiers pendant un certain temps. Pour plus d’informations, consultez [Mise à l’échelle du débit dans Amazon EFS](http://docs.aws.amazon.com/efs/latest/ug/performance.html#bursting). + + La statistique `Minimum` est le plus petit solde de crédit en rafale pour une minute quelconque au cours de la période. La statistique `Maximum` représente le solde de crédit le plus élevé pour une minute donnée au cours de la période. La statistique `Average` correspond au solde moyen du crédit d'éclatement au cours de la période. + + Unités : octets + + Statistiques valides : `Minimum, Maximum, Average` +
+ `ClientConnections` + + Le nombre de connexions client à un système de fichiers. Lors de l'utilisation d'un client standard, il existe une connexion par instanceAmazon EC2 montée. + + Remarque : pour calculer la moyenne `ClientConnections` pour les périodes supérieures à une minute, divisez la statistique `Sum` par le nombre de minutes de la période. + + Unités : Nombre de connexions client + + Statistiques valides : `Sum` +
+ `DataReadIOBytes` + + Le nombre d'octets pour chaque opération de lecture du système de fichiers. + + La statistique `Sum` est le nombre total d'octets associés aux opérations de lecture. La statistique `Minimum` est la taille de la plus petite opération de lecture pendant la période. La statistique `Maximum` correspond à la taille de la plus grande opération de lecture au cours de la période. La statistique `Average` est la taille moyenne des opérations de lecture au cours de la période. La statistique `SampleCount` fournit un décompte des opérations de lecture. + + Unités: + + * Octets pour `Minimum, Maximum, Average,` et `Sum`. + + * Comptez pour `SampleCount`. + + Statistiques valides : `Minimum, Maximum, Average, Sum, SampleCount` +
+ `DataWriteIOBytes` + + Le nombre d'octets pour chaque opération d'écriture du système de fichiers. + + La statistique `Sum` est le nombre total d'octets associés aux opérations d'écriture. La statistique `Minimum` est la taille de la plus petite opération d'écriture pendant la période. La statistique `Maximum` correspond à la taille de la plus grande opération d’écriture au cours de la période. La statistique `Average` est la taille moyenne des opérations d'écriture au cours de la période. La statistique `SampleCount` fournit un décompte des opérations d'écriture. + + Unités: + + * Les octets sont les unités des statistiques `Minimum, Maximum, Average` et `Sum` . + + * Comptez pour `SampleCount`. + + Statistiques valides : `Minimum, Maximum, Average, Sum, SampleCount` +
+ `MetadataIOBytes` + + Le nombre d'octets pour chaque opération de métadonnées. + + La statistique `Sum` est le nombre total d'octets associés aux opérations de métadonnées. La statistique `Minimum` correspond à la taille de la plus petite opération de métadonnées au cours de la période. La statistique `Maximum` correspond à la taille de la plus grande opération de métadonnées au cours de la période. La statistique `Average` correspond à la taille de l’opération moyenne de métadonnées au cours de la période. La statistique `SampleCount` fournit un décompte des opérations de métadonnées. + + Unités: + + * Les octets sont les unités des statistiques `Minimum, Maximum, Average,` et `Sum` . + + * Comptez pour `SampleCount`. + + Statistiques valides : `Minimum, Maximum, Average, Sum, SampleCount` +
+ `PercentIOLimit` + + Affiche à quel point un système de fichiers est proche d'atteindre la limite d'I/O du mode de performance à usage général. Si cette métrique est à 100 % la plupart du temps, envisagez de déplacer votre application vers un système de fichiers utilisant le mode de performance I/O max. + + Remarque : cette métrique est uniquement soumise pour le système de fichiers utilisant le mode de performance à usage général. + + Unités : Pourcentage +
+ `PermittedThroughput` + + La quantité maximale de débit autorisée par un système de fichiers, compte tenu de la taille du système de fichiers et `BurstCreditBalance`. Pour plus d’informations, consultez [Performances d’Amazon EFS](http://docs.aws.amazon.com/efs/latest/ug/performance.html). + + La statistique `Minimum` est le plus petit débit autorisé pour une minute au cours de la période. La statistique `Maximum` correspond au débit le plus élevé autorisé pour une minute au cours de la période. La statistique `Average` est le débit moyen autorisé pendant la période. + + Unités : octets par seconde + + Statistiques valides : `Minimum, Maximum, Average` +
+ `TotalIOBytes` + + Le nombre d'octets pour chaque opération du système de fichiers, y compris les opérations de lecture de données, d'écriture de données et de métadonnées. + + La statistique `Sum` est le nombre total d'octets associés à toutes les opérations du système de fichiers. La statistique `Minimum` correspond à la taille de la plus petite opération au cours de la période. La statistique `Maximum` correspond à la taille de la plus grande opération au cours de la période. La statistique `Average` est la taille moyenne d’une opération au cours de la période. La statistique `SampleCount` fournit un décompte de toutes les opérations. + + Remarque : pour calculer le nombre moyen d'opérations par seconde pour une période, divisez la statistique `SampleCount` par le nombre de secondes de la période. Pour calculer le débit moyen (octets par seconde) pour une période, divisez la statistique `Sum` par le nombre de secondes de la période. + + Unités: + + * Octets pour les statistiques `Minimum, Maximum, Average,` et `Sum` . + + * Comptez pour `SampleCount`. + + Statistiques valides : `Minimum, Maximum, Average, Sum, SampleCount` +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elastic-beanstalk-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elastic-beanstalk-monitoring-integration.mdx new file mode 100644 index 00000000000..671869d0221 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elastic-beanstalk-monitoring-integration.mdx @@ -0,0 +1,384 @@ +--- +title: Intégration AWS Elastic Beanstalk monitoring +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Elastic Beanstalk monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration AWS [Elastic Beanstalk](https://aws.amazon.com/elasticbeanstalk) pour signaler vos données Beanstalk à New Relic. Ce document explique la fonctionnalité de l'intégration, comment l'activer et quelles données peuvent être signalées. + +AWS Elastic Beanstalk est un service dynamique qui permet un déploiement et une évolutivité faciles pour vos applications. L'« application » dans AWS Beanstalk est l'environnement. Une « application » peut avoir plusieurs environnements qui lui sont associés. + +## Exigences [#requirements] + +AWS Elastic Beanstalk enverra par défaut certaines métriques de base à Amazon CloudWatch. De plus, vous pouvez activer les rapports de santé améliorés en tant que mesures personnalisées ; l'activation de ces mesures peut ajouter des frais supplémentaires à la tarification de votre compte Amazon CloudWatch . Pour activer les métriques CloudWatch améliorées, consultez [Publication de métriques personnalisées Amazon CloudWatch pour un environnement](http://docs.aws.amazon.com/elasticbeanstalk/latest/dg/health-enhanced-cloudwatch.html). + +## Activer l'intégration [#activate] + +Par défaut, aucune métrique n'est sélectionnée dans les paramètres Elastic Beanstalk . Vous devez les sélectionner pour l'environnement **each** pour générer des métriques dans l'UI de New Relic. Si aucune métrique n'est sélectionnée, aucune donnée ne sera transmise à New Relic. + +Pour activer cette intégration : + +1. Suivez les instructions dans [Connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). +2. Mettez à jour vos Elastic Beanstalk paramètres pour sélectionner les métriques (la valeur par défaut est aucune métrique) à monitorer pour **each** l'environnement : dans l'AWS ,Elastic Beanstalk UI **Configuration > Health**accédez à, puis configurez les CloudWatch métriques personnalisées pour les rapports d'intégrité. + +Une fois que vous avez sélectionné les métriques que vous souhaitez signaler pour chaque environnement, Elastic Beanstalk génère des données à partir du moment où les objets de données `instance` et `environment` sont créés. + +## configuration et sondage [#polling] + +Vous pouvez modifier la [fréquence d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations d'interrogation par défaut pour l'intégration AWS Elastic Beanstalk : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Afficher et utiliser les données [#find-data] + +Pour [afficher et utiliser vos données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data), accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration AWS Elastic Beanstalk. + +## données métriques + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `EnvironmentHealth` + + \[Environnement] L’état de santé de l’environnement. Les valeurs possibles sont 0 (OK), 1 (Info), 5 (Inconnu), 10 (Aucune donnée), 15 (Avertissement), 20 (Dégradé) et 25 (Grave). +
+ `InstancesOk` + + \[Environnement] Le nombre d'instances avec OK état de santé. +
+ `InstancesPending` + + \[Environnement] Le nombre d'instances avec En attente d'état de santé. +
+ `InstancesInfo` + + \[Environnement] Le nombre d'instances avec Info état de santé. +
+ `InstancesUnknown` + + \[Environnement] Le nombre d'instances avec un état de santé inconnu. +
+ `InstancesNoData` + + \[Environnement] Le nombre d'instances sans données d'état de santé. +
+ `InstancesWarning` + + \[Environnement] Le nombre d'instances avec Avertissement état de santé. +
+ `InstancesDegraded` + + \[Environnement] Le nombre d'instances avec un état de santé dégradé. +
+ `InstancesSevere` + + \[Environnement] Le nombre d'instances avec état de santé sévère. +
+ `ApplicationRequestsTotal` + + Le nombre de requests complétées par l'instance ou l'environnement. +
+ `ApplicationRequests2xx` + + Le nombre de requests terminées avec un code de statut 2XX. +
+ `ApplicationRequests3xx` + + Le nombre de requests terminées avec un code de statut 3XX. +
+ `ApplicationRequests4xx` + + Le nombre de requests terminées avec un code de statut 4XX. +
+ `ApplicationRequests5xx` + + Le nombre de requests terminées avec un code de statut 5XX. +
+ `ApplicationLatencyP10` + + Le temps moyen nécessaire pour répondre aux 10 % de requests les plus rapides. +
+ `ApplicationLatencyP50` + + Le temps moyen nécessaire pour répondre aux 50 % de requests les plus rapides. +
+ `ApplicationLatencyP75` + + Le temps moyen nécessaire pour répondre aux 75 % de requests les plus rapides. +
+ `ApplicationLatencyP85` + + Le temps moyen nécessaire pour répondre aux 85 % de requests les plus rapides. +
+ `ApplicationLatencyP90` + + Le temps moyen nécessaire pour répondre aux 90 % de requests les plus rapides. +
+ `ApplicationLatencyP95` + + Le temps moyen nécessaire pour répondre aux 95 % de requests les plus rapides. +
+ `ApplicationLatencyP99` + + Le temps moyen nécessaire pour répondre aux 99 % de requests les plus rapides. +
+ `ApplicationLatencyP99.9` + + Le temps moyen nécessaire pour répondre le plus rapidement possible à x pour cent des requests. +
+ `LoadAverage1min` + + \[instance] La charge moyenne du processeur au cours de la dernière minute. +
+ `InstanceHealth` + + \[instance] L'état de santé de l'instance. +
+ `RootFilesystemUtil` + + \[instance] Le pourcentage d'espace disque utilisé. +
+ `CPUIrq` + + \[instance] Le pourcentage de temps pendant lequel le processeur était dans cet état au cours de la dernière minute. +
+ `CPUUser` + + \[instance] Le pourcentage de temps pendant lequel le processeur était dans cet état au cours de la dernière minute. +
+ `CPUIdle` + + \[instance] Le pourcentage de temps pendant lequel le processeur était dans cet état au cours de la dernière minute. +
+ `CPUSystem` + + \[instance] Le pourcentage de temps pendant lequel le processeur était dans cet état au cours de la dernière minute. +
+ `CPUSoftirq` + + \[instance] Le pourcentage de temps pendant lequel le processeur était dans cet état au cours de la dernière minute. +
+ `CPUIowait` + + \[instance] Le pourcentage de temps pendant lequel le processeur était dans cet état au cours de la dernière minute. +
+ `CPUNice` + + \[instance] Le pourcentage de temps pendant lequel le processeur était dans cet état au cours de la dernière minute. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elasticache-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elasticache-monitoring-integration.mdx new file mode 100644 index 00000000000..d69e2010bcb --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elasticache-monitoring-integration.mdx @@ -0,0 +1,895 @@ +--- +title: Intégration monitoring Amazon ElastiCache +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon ElastiCache monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données Amazon ElastiCache à New Relic. Ce document explique comment fonctionne l'intégration et quelles données peuvent être signalées. + +## Caractéristiques [#features] + +Amazon [ElastiCache](https://aws.amazon.com/elasticache/) est un service Web qui facilite le déploiement, l'exploitation et la mise à l'échelle d'un magasin de données ou d'un cache en mémoire dans le cloud. L'intégration ElastiCache de New Relic rapporte les données de votre instance Amazon ElastiCache, y compris les données du processeur, les octets entrants et sortants, la mémoire et les données spécifiques aux services Redis et Memcached. L'intégration de New Relic vous donne la possibilité de [créer des conditions d'alerte](/docs/infrastructure/new-relic-infrastructure/configuration/infrastructure-alerts-add-edit-or-view-host-alert-information) pour vos données, ainsi que [d'effectuer des requêtes et de créer des graphiques](/docs/infrastructure/new-relic-infrastructure/share-charts/share-infrastructure-data-view-insights). + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation par défaut](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) pour l'intégration Amazon ElastiCache : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute ou 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver les données de cette intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l'un des liens d'intégration ElastiCache. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `DatastoreSample` , avec une valeur `provider` de `ElastiCacheRedisNode`, `ElastiCacheRedisCluster` ou `ElastiCacheMemcachedNode`. + +Pour en savoir plus sur la recherche et l’utilisation des données d’intégration, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +### Données standard ElastiCache [#standard-elasticache] + +Cette intégration collecte les données suivantes à partir de toutes les instances ElastiCache : + + + Pour des descriptions complètes, consultez [Métriques et dimensions Amazon ElastiCache](http://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/elasticache-metricscollected.html). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Type de données +
+ `CPUUtilization` + + pour cent +
+ `CpuCreditUsage` + + compter +
+ `CpuCreditBalance` + + compter +
+ `DatabaseMemoryUsagePercentage` + + pour cent +
+ `FreeableMemory` + + octets +
+ `NetworkBytesIn` + + octets +
+ `NetworkBytesOut` + + octets +
+ `SwapUsage` + + octets +
+ +### Données ElastiCache spécifiques à Redis [#redis-specific] + +Cette intégration collecte les informations suivantes à partir de l'instance Redis , en plus des [données ElastiCache standard](#standard-elasticache). + + + Pour obtenir des descriptions complètes, consultez [Amazon ElastiCache Métriques pour Redis](http://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/elasticache-metricscollected.html). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Type de données +
+ `BytesUsedForCache` + + octets +
+ `CacheHits` + + entier +
+ `CacheHitRate` + + pour cent +
+ `CacheInteger` + + entier +
+ `CacheMisses` + + entier +
+ `CurrConnections` + + entier +
+ `CurrItems` + + compter +
+ `Db0AverageTtl` + + entier (millisecondes) +
+ `EvalBasedCmds` + + compter +
+ `EvalBasedCmdsLatency` + + entier (microsecondes) +
+ `Evictions` + + entier +
+ `GeoSpatialBasedCmds` + + compter +
+ `GeoSpatialBasedCmdsLatency` + + entier (microsecondes) +
+ `GetTypeCmds` + + compter +
+ `GetTypeCmdsLatency` + + entier (microsecondes) +
+ `HashBasedCmds` + + compter +
+ `HashBasedCmdsLatency` + + entier (microsecondes) +
+ `HyperLogLogBasedCommands` + + entier +
+ `HyperLogLogBasedCmdsLatency` + + entier (microsecondes) +
+ `KeyBasedCmds` + + compter +
+ `KeyBasedCmdsLatency` + + entier (microsecondes) +
+ `ListBasedCmds` + + compter +
+ `ListBasedCmdsLatency` + + entier (microsecondes) +
+ `MasterLinkHealthStatus` + + entier +
+ `MemoryFragmentationRatio` + + entier +
+ `NewConnections` + + entier +
+ `PubSubBasedCmds` + + compter +
+ `PubSubBasedCmdsLatency` + + entier (microsecondes) +
+ `Reclaimed` + + entier +
+ `ReplicationBytes` + + octets +
+ `ReplicationLag` + + entier (secondes) +
+ `SaveInProgress` + + entier +
+ `SetBasedCmds` + + compter +
+ `SetBasedCmdsLatency` + + entier (microsecondes) +
+ `SetTypeCmds` + + compter +
+ `SetTypeCmdsLatency` + + entier (microsecondes) +
+ `SortedSetBasedCmds` + + compter +
+ `SortedBasedCmdsLatency` + + entier (microsecondes) +
+ `StreamBasedCmdsLatency` + + entier (microsecondes) +
+ `StringBasedCmds` + + compter +
+ `StringBasedCmdsLatency` + + entier (microsecondes) +
+ +### Données ElastiCache spécifiques à Memcached [#memcached-specific] + +Cette intégration collecte les données suivantes à partir de l'instance Memcached, en plus des [données ElastiCache standard](#standard-elasticache). + + + Pour des descriptions complètes, consultez [Métriques Amazon ElastiCache pour Memcached](http://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CacheMetrics.Memcached.html). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Type de données +
+ `bytesReadIntoMemcached` + + octets +
+ `bytesusedForCacheItems` + + octets +
+ `bytesWrittenOutFromMemcached` + + octets +
+ `casBadval` + + compter +
+ `casHits` + + compter +
+ `casMisses` + + compter +
+ `cmdFlush` + + compter +
+ `cmdGet` + + compter +
+ `cmdSet` + + compter +
+ `decrHits` + + compter +
+ `decrMisses` + + compter +
+ `deleteHits` + + compter +
+ `deleteMisses` + + compter +
+ `getHits` + + compter +
+ `getMisses` + + compter +
+ `incrHits` + + compter +
+ `incrMisses` + + compter +
+ `bytesUsedForHash` + + octets +
+ `cmdConfigGet` + + compter +
+ `cmdConfigSet` + + compter +
+ `cmdTouch` + + compter +
+ `currConfig` + + compter +
+ `evictedUnfetched` + + compter +
+ `expiredUnfetched` + + compter +
+ `slabsMoved` + + compter +
+ `touchHits` + + compter +
+ `touchMisses` + + compter +
+ `newItems` + + compter +
+ `unusedMemory` + + octets +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elasticsearch-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elasticsearch-monitoring-integration.mdx new file mode 100644 index 00000000000..d810e9750c1 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elasticsearch-monitoring-integration.mdx @@ -0,0 +1,846 @@ +--- +title: Intégration d'Amazon Elasticsearch monitoring +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon Elasticsearch monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration pour la création de rapports sur les données Amazon Elasticsearch vers New Relic. Ce document explique la fonctionnalité de l'intégration, comment l'activer et quelles données peuvent être signalées. + +## Caractéristiques [#features] + +[Amazon Elasticsearch Service](https://aws.amazon.com/elasticsearch-service/) est un service entièrement géré qui fournit les API faciles à utiliser et les capacités en temps réel d'Elasticsearch ainsi que la disponibilité, l'évolutivité et la sécurité requises par la charge de travail de production. L'intégration de New Relic Elasticsearch monitoring vous permet de suivre cluster l'état , l'utilisation du processeur, la latence de lecture/écriture, le débit et d'autres mesures, à des moments précis. Les données Elasticsearch sont également disponibles [pour interroger, analyser et représenter graphiquement vos données](/docs/query-your-data/explore-query-data/get-started/introduction-querying-new-relic-data/). + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation par défaut](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) pour l'intégration Amazon Elasticsearch : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Afficher et utiliser les données [#find-data] + +Pour [afficher et utiliser](/docs/integrations/infrastructure-integrations/get-started/understand-use-data-infrastructure-integrations/) les données de cette intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l'un des liens d'intégration Elasticsearch. + +Pour [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data), utilisez le type d'événement `DatastoreSample` avec la valeur `provider` appropriée : + +* `ElasticsearchCluster` pour le groupe +* `ElasticsearchNode` pour les nœuds + +## données métriques [#metrics] + +L'intégration Elasticsearch collecte ces métriques pour le cluster : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Statistiques pertinentes + + Description +
+ `ClusterStatus.green` + + Minimum, maximum + + Indique que tous les fragments d’index sont alloués aux nœuds du cluster. +
+ `ClusterStatus.yellow` + + Minimum, maximum + + Indique que les fragments primaires de tous les index sont alloués aux nœuds d'un cluster, mais que les fragments de réplication d'au moins un index ne le sont pas. Les clusters à nœud unique s'initialisent toujours avec cet état de cluster car il n'existe pas de deuxième nœud auquel une réplique peut être attribuée. + + Vous pouvez soit augmenter le nombre de nœuds pour obtenir un statut de cluster vert, soit utiliser l'API Amazon ES pour définir le paramètre `number_of_replicas` de votre index sur 0. Pour plus d'informations, consultez la documentation d'Amazon pour [la mise à jour des paramètres d'index](https://www.elastic.co/guide/en/elasticsearch/reference/1.4/indices-update-settings.html). +
+ `ClusterStatus.red` + + Minimum, maximum + + Indique que les fragments primaires et de réplique d'au moins un index ne sont pas alloués aux nœuds d'un cluster. Pour plus d'informations, consultez la documentation d'Amazon sur [le statut Cluster rouge](http://docs.aws.amazon.com/elasticsearch-service/latest/developerguide/aes-handling-errors.html#aes-handling-errors-red-cluster-status). +
+ `Nodes` + + Minimum, maximum, moyenne + + Le nombre de nœuds dans le cluster Amazon ES. +
+ `SearchableDocuments` + + Minimum, maximum, moyenne + + Le nombre total de documents consultables dans tous les index du cluster. +
+ `DeletedDocuments` + + Minimum, maximum, moyenne + + Le nombre total de documents supprimés dans tous les index du cluster. +
+ `CPUUtilization` + + Minimum, maximum, moyenne + + Pourcentage maximal de ressources CPU utilisées pour les nœuds de données du cluster. +
+ `FreeStorageSpace` + + Minimum + + L'espace libre, en mégaoctets, pour tous les nœuds de données du cluster. +
+ `ClusterUsedSpace` + + Minimum, maximum + + L'espace total utilisé, en mégaoctets, pour un cluster. +
+ `ClusterIndexWritesBlocked` + + Maximum + + Indique si votre cluster accepte ou bloque requests d'écriture entrantes. Une valeur de 0 signifie que le cluster accepte requests. Une valeur de 1 signifie que requests sont bloquées. +
+ `JVMMemoryPressure` + + Maximum + + Le pourcentage maximal du tas Java utilisé pour tous les nœuds de données du cluster. +
+ `AutomatedSnapshotFailure` + + Minimum, maximum + + Le nombre d’instantanés automatisés ayant échoué pour le cluster. Une valeur de 1 indique qu'aucun instantané automatisé n'a été pris pour le domaine au cours des 36 heures précédentes. +
+ `CPUCreditBalance` + + Minimum + + Les crédits CPU restants disponibles pour les nœuds de données du cluster. Un crédit CPU fournit les performances d'un cœur de processeur complet pendant une minute. Cette métrique est disponible uniquement pour le t2.micro.elasticsearch, t2.small.elasticsearch, et t2.medium.elasticsearch type d'instance. +
+ `KibanaHealthyNodes` + + Minimum + + Un bilan de santé pour Kibana. Une valeur de 1 indique un comportement normal. Une valeur de 0 indique que Kibana est inaccessible. Dans la plupart des cas, la santé de Kibana reflète la santé du cluster. +
+ `KMSKeyError` + + Minimum, maximum + + Une valeur de 1 indique que la clé principale des clients KMS utilisée pour crypter les données au repos a été désactivée. Pour restaurer le domaine à ses opérations normales, réactivez la clé. +
+ `KMSKeyInaccessible` + + Minimum, maximum + + Une valeur de 1 indique que la clé principale des clients KMS utilisée pour chiffrer les données au repos a été supprimée ou que ses attributions à Amazon ES ont été révoquées. Vous ne pouvez pas récupérer les domaines qui sont dans cet état. Cependant, si vous disposez d'un instantané manuel, vous pouvez l'utiliser pour migrer les données du domaine vers un nouveau domaine. +
+ `InvalidHostHeaderRequests` + + Somme + + Le nombre de HTTP requests effectuées sur le Elasticsearch cluster qui incluaient un en-tête hôte non valide (ou manquant). +
+ `ElasticsearchRequests` + + Somme + + Le nombre de requests effectuées sur le Elasticsearch cluster. +
+ `RequestCount` + + Somme + + Le nombre de requests adressées à un domaine et le code de réponse HTTP (2xx, 3xx, 4xx, 5xx) pour chaque requête. +
+ `MasterCPUUtilization` + + Moyenne + + Le pourcentage maximal de ressources CPU utilisées par les nœuds maîtres dédiés. Nous recommandons d'augmenter la taille du type d'instance lorsque cette métrique atteint 60 pour cent. +
+ `MasterJVMMemoryPressure` + + Maximum + + Le pourcentage maximal du tas Java utilisé pour tous les nœuds maîtres dédiés du cluster. Nous recommandons de passer à un type d'instance plus grand lorsque cette métrique atteint 85 pour cent. +
+ `MasterCPUCreditBalance` + + Minimum + + Les crédits CPU restants disponibles pour les nœuds maîtres dédiés dans le cluster. Un crédit CPU fournit les performances d'un cœur de processeur complet pendant une minute. Cette métrique est disponible uniquement pour t2.micro.elasticsearch, t2.small.elasticsearch, et t2.medium.elasticsearch type d'instance. +
+ `MasterReachableFromNode` + + Minimum + + Un contrôle de santé pour `MasterNotDiscovered` exceptions. Une valeur de 1 indique un comportement normal. Une valeur de 0 indique que `/_cluster/health/` échoue. + + Les échecs signifient que le nœud maître s'est arrêté ou n'est pas accessible. Ils sont généralement le résultat d’un problème de connectivité réseau ou d’un problème de dépendance AWS. +
+ `ReadLatency` + + Minimum, maximum, moyenne + + La latence, en secondes, pour les opérations de lecture sur les volumes EBS. +
+ `WriteLatency` + + Minimum, maximum, moyenne + + La latence, en secondes, pour les opérations d'écriture sur les volumes EBS. +
+ `ReadThroughput` + + Minimum, maximum, moyenne + + Le débit, en octets par seconde, pour les opérations de lecture sur les volumes EBS. +
+ `WriteThroughput` + + Minimum, maximum, moyenne + + Le débit, en octets par seconde, pour les opérations d'écriture sur les volumes EBS. +
+ `DiskQueueDepth` + + Minimum, maximum, moyenne + + Le nombre de d'entrée et de sortie (I/O) enrequests attente pour un volume EBS. +
+ `ReadIOPS` + + Minimum, maximum, moyenne + + Nombre d'opérations d'entrée et de sortie (I/O) par seconde pour les opérations de lecture sur les volumes EBS. +
+ `WriteIOPS` + + Minimum, maximum, moyenne + + Nombre d'opérations d'entrée et de sortie (I/O) par seconde pour les opérations d'écriture sur les volumes EBS. +
+ +Les métriques suivantes sont collectées pour le cluster Elasticsearch , et éventuellement pour chaque instance ou nœud d'un domaine également : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Statistiques pertinentes + + Description +
+ `IndexingLatency` + + Pour les nœuds : Moyenne + + Pour le cluster : Moyenne, Maximum + + Le temps moyen, en millisecondes, qu'il faut à un fragment pour terminer une opération d'indexation. +
+ `IndexingRate` + + Pour les nœuds : Moyenne + + Pour le cluster : Moyenne, Maximum, Somme + + Le nombre d'opérations d'indexation par minute. +
+ `SearchLatency` + + Pour les nœuds : Moyenne + + Pour le cluster : Moyenne, Maximum + + Le temps moyen, en millisecondes, qu'il faut à un fragment pour terminer une opération de recherche. +
+ `SearchRate` + + Pour les nœuds : Moyenne + + Pour le cluster : Moyenne, Maximum, Somme + + Le nombre total de requests de recherche par minute pour tous les fragments d'un nœud. +
+ `SysMemoryUtilization` + + Minimum, maximum, moyenne + + Le pourcentage de la mémoire de l'instance qui est utilisé. +
+ `JVMGCYoungCollectionCount` + + Pour les nœuds : maximum + + Pour le cluster : Somme, Maximum, Moyenne + + Le nombre de fois que le ramassage des ordures de la « jeune génération » a été effectué. Un nombre important et toujours croissant d’exécutions fait partie intégrante des opérations de cluster. +
+ `JVMGCYoungCollectionTime` + + Pour les nœuds : maximum + + Pour le cluster : Somme, Maximum, Moyenne + + La durée, en millisecondes, que le cluster a passé à effectuer la collecte des déchets de « jeune génération ». +
+ `JVMGCOldCollectionCount` + + Pour les nœuds : maximum + + Pour le cluster : Somme, Maximum, Moyenne + + Le nombre de fois que le ramasse-miettes « ancienne génération » a été exécuté. Dans un cluster disposant de ressources suffisantes, ce nombre devrait rester petit et croître peu fréquemment. +
+ `JVMGCOldCollectionTime` + + Pour les nœuds : maximum + + Pour le cluster : Somme, Maximum, Moyenne + + La durée, en millisecondes, que le cluster a passé à effectuer la collecte des déchets « d'ancienne génération ». +
+ `ThreadpoolForce_mergeQueue` + + Pour les nœuds : maximum + + Pour le cluster : Somme, Maximum, Moyenne + + Le nombre de tâches en file d'attente dans le pool de threads de fusion forcée. Si la taille de la file d’attente est constamment élevée, envisagez de faire évoluer votre cluster. +
+ `ThreadpoolForce_mergeRejected` + + Pour les nœuds : maximum + + Pour le cluster : somme + + Le nombre de tâches rejetées dans le pool de threads de fusion forcée. Si ce nombre augmente continuellement, envisagez de faire évoluer votre cluster. +
+ `ThreadpoolForce_mergeThreads` + + Pour les nœuds : maximum + + Pour le cluster : somme, moyenne + + La taille du pool de threads de fusion forcée. +
+ `ThreadpoolIndexQueue` + + Pour les nœuds : maximum + + Pour le cluster : Somme, Maximum, Moyenne + + Le nombre de tâches en file d'attente dans le pool de threads d'index. Si la taille de la file d’attente est constamment élevée, envisagez de faire évoluer votre cluster. La taille maximale de la file d'attente d'index est de 200. +
+ `ThreadpoolIndexRejected` + + Pour les nœuds : maximum + + Pour le cluster : somme + + Le nombre de tâches rejetées dans le pool de threads d'index. Si ce nombre augmente continuellement, envisagez de faire évoluer votre cluster. +
+ `ThreadpoolIndexThreads` + + Pour les nœuds : maximum + + Pour le cluster : somme, moyenne + + La taille du pool de threads d'index. +
+ `ThreadpoolSearchQueue` + + Pour les nœuds : maximum + + Pour le cluster : Somme, Maximum, Moyenne + + Le nombre de tâches en file d'attente dans le pool de threads de recherche. Si la taille de la file d’attente est constamment élevée, envisagez de faire évoluer votre cluster. La taille maximale de la file d'attente de recherche est de 1 000. +
+ `ThreadpoolSearchRejected` + + Pour les nœuds : maximum + + Pour le cluster : somme + + Le nombre de tâches rejetées dans le pool de threads de recherche. Si ce nombre augmente continuellement, envisagez de faire évoluer votre cluster. +
+ `ThreadpoolSearchThreads` + + Pour les nœuds : maximum + + Pour le cluster : somme, moyenne + + La taille du pool de threads de recherche. +
+ `ThreadpoolBulkQueue` + + Pour les nœuds : maximum + + Pour le cluster : Somme, Maximum, Moyenne + + Le nombre de tâches en file d'attente dans le pool de threads en masse. Si la taille de la file d’attente est constamment élevée, envisagez de faire évoluer votre cluster. +
+ `ThreadpoolBulkRejected` + + Pour les nœuds : maximum + + Pour le cluster : somme + + Le nombre de tâches rejetées dans le pool de threads en masse. Si ce nombre augmente continuellement, envisagez de faire évoluer votre cluster. +
+ `ThreadpoolBulkThreads` + + Pour les nœuds : maximum + + Pour le cluster : somme, moyenne + + La taille du pool de threads en masse. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elb-classic-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elb-classic-monitoring-integration.mdx new file mode 100644 index 00000000000..80ee4e871a9 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elb-classic-monitoring-integration.mdx @@ -0,0 +1,215 @@ +--- +title: Intégration monitoring AWS ELB (Classic) +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon Classic ELB monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration Amazon Elastic Classic Load Balancing (ELB) pour signaler les données ELB classiques à New Relic. Ce document explique la fonctionnalité de l'intégration, comment l'activer et quelles données peuvent être signalées. + +## Caractéristiques [#features] + +L'intégration de New Relic pour [Amazon Elastic Classic Load Balancing](https://aws.amazon.com/elasticloadbalancing/) (ELB) signale les données ELB, notamment le nombre de messages de code HTTP, le nombre d'hôtes sains et non sains, les temps de latence et les états configuration ELB. Les données d'intégration AWS sont également disponibles [pour l'interrogation et la création de graphiques](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure#insights). + +Amazon propose trois types d'équilibreurs de charge : [l'équilibreur de charge classique](https://aws.amazon.com/elasticloadbalancing/classicloadbalancer/), [l'équilibreur de charge d'application](https://aws.amazon.com/elasticloadbalancing/) (ALB) et [l'équilibreur de charge réseau](https://aws.amazon.com/elasticloadbalancing/) (NLB). New Relic propose également une [intégration ALB/NLB](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-alb-monitoring-integration) pour monitorer les deux derniers types d'équilibreurs de charge. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation par défaut](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) pour l'intégration AWS ELB : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Afficher et utiliser les données [#find-data] + +Pour [afficher et utiliser les données de cette intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data), accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l'un des liens d'intégration ELB. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `LoadBalancerSample`, avec une valeur `provider` de `Elb`. + +## données métriques [#metrics] + +L'intégration collecte les métriques suivantes. Pour plus de détails sur ces métriques, consultez [la documentation des métriques ELB Classic Load Balancer d'Amazon](http://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/elb-metricscollected.html#loadbalancing-metrics-clb). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `backendConnectionErrors.Sum` + + Taux du nombre de connexions par seconde qui n'ont pas été établies avec succès entre l'équilibreur de charge et l'instance enregistrée. + + L'équilibreur de charge réessaye la connexion en cas d'erreurs, ce nombre peut donc dépasser le taux de requêtes. Ce décompte inclut également toutes les erreurs de connexion liées aux contrôles de santé. +
+ `healthyHostCount` + + `unHealthyHostCount` + + Le nombre d'instances saines ou non saines enregistrées auprès de votre équilibreur de charge. Une instance nouvellement enregistrée est considérée comme saine après avoir réussi le premier contrôle de santé. + + Si l'équilibrage de charge entre zones est activé, le nombre d'instances saines pour la dimension `LoadBalancerName` est calculé sur toutes les zones de disponibilité. Dans le cas contraire, il est calculé par zone de disponibilité. +
+ `httpCodeBackend2XX` + + `httpCodeBackend3XX` + + `httpCodeBackend4XX` + + `httpCodeBackend5XX` + + \[Écouteur HTTP] Le nombre de codes de réponse HTTP générés par seconde par instance enregistrée. Ce décompte n’inclut aucun code de réponse généré par l’équilibreur de charge. +
+ `httpCodeElb4XX` + + \[Écouteur HTTP] Le nombre de codes d'erreur client HTTP `4XX` générés par l'équilibreur de charge par minute. Des erreurs client sont générées lorsqu'une demande est mal formée ou incomplète. +
+ `httpCodeElb5XX` + + \[Écouteur HTTP] Le nombre de codes d'erreur de serveur HTTP `5XX` générés par l'équilibreur de charge par minute. Ce décompte n’inclut aucun code de réponse généré par l’instance enregistrée. La métrique est signalée s'il n'y a pas d'instance saine enregistrée auprès de l'équilibreur de charge, ou si le taux de requêtes dépasse la capacité de l'instance (débordement) ou de l'équilibreur de charge. +
+ `latency.Average` + + `latency.Maximum` + + \[Écouteur HTTP] Le temps total écoulé, en secondes, depuis le moment où l'équilibreur de charge a envoyé la demande à une instance enregistrée jusqu'à ce que l'instance commence à envoyer les en-têtes de réponse. + + \[Écouteur TCP] Le temps total écoulé, en secondes, pour que l'équilibreur de charge établisse avec succès une connexion à une instance enregistrée. + + Statistiques disponibles : + + * aws.elb.latency.p90 + * aws.elb.latency.p95 + * aws.elb.latency.p99 +
+ `requestCount` + + Le nombre de requests terminées ou de connexions établies par seconde pendant l'intervalle spécifié (1 ou 5 minutes). +
+ `spilloverCount` + + Le nombre total de requests rejetées par seconde, en raison d'une file d'attente pleine. +
+ `surgeQueueLength.Average, Maximum, Minimum` + + Le nombre total de requests en attente de routage. L'équilibreur de charge met une demande en file d'attente s'il ne parvient pas à établir une connexion avec une instance saine afin d'acheminer la demande. + + La taille maximale de la file d'attente est de 1 024. requests supplémentaires sont rejetées lorsque la file d'attente est pleine. Pour plus d'informations, voir `SpilloverCount`. +
+ `estimatedAlbActiveConnectionCount.Average, Maximum, Minimum` + + Le nombre estimé de connexions TCP simultanées actives des clients vers l'équilibreur de charge et de l'équilibreur de charge vers la cible. +
+ `estimatedAlbConsumedLcus.Average, Maximum, Minimum` + + Nombre estimé d'unités de capacité d'équilibrage de charge (LCU) utilisées par un équilibreur de charge d'application. +
+ `estimatedAlbNewConnectionCount.Average, Maximum, Minimum` + + Le nombre estimé de nouvelles connexions TCP établies entre les clients et l'équilibreur de charge et entre l'équilibreur de charge et la cible. +
+ `estimatedProcessedBytes.Average, Maximum, Minimum` + + Le nombre estimé d'octets traités par un équilibreur de charge d'application. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elemental-mediaconvert-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elemental-mediaconvert-monitoring-integration.mdx new file mode 100644 index 00000000000..6a6e669bcb1 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elemental-mediaconvert-monitoring-integration.mdx @@ -0,0 +1,273 @@ +--- +title: Intégration monitoring AWS Elemental MediaConvert +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Elemental MediaConvert monitoring integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[New Relic inclut une intégration](/docs/infrastructure/introduction-infra-monitoring) permettant de signaler vos données AWS Elemental MediaConvert à notre plateforme. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration AWS Elemental MediaConvert : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration dans l’infrastructure, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez une intégration. + +Les données sont jointes au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ File d'attente + + `AwsMediaConvertQueueSample` + + `AwsMediaConvertQueue` +
+ Opération + + `AwsMediaConvertOperationSample` + + `AwsMediaConvertOperation` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données AWS Elemental MediaConvert pour la file d'attente et l'opération. + +### Données de la file d'attente Elemental MediaConvert + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `audioOutputDuration` + + Secondes + + Le nombre de secondes de sortie audio uniquement pour une file d'attente. +
+ `sDOutputDuration` + + Secondes + + Le nombre de secondes de sortie en définition standard (SD) pour une file d'attente. +
+ `hDOutputDuration` + + Secondes + + Le nombre de secondes de sortie haute définition (HD) pour une file d'attente. +
+ `uHDOutputDuration` + + Secondes + + Le nombre de secondes de sortie ultra haute définition (UHD) pour une file d'attente. +
+ `8KOutputDuration` + + Secondes + + Le nombre de secondes de sortie 8K pour une file d'attente. +
+ `jobsCompletedCount` + + Compter + + Le nombre de tâches terminées dans cette file d'attente. +
+ `jobsErroredCount` + + Compter + + Le nombre de tâches qui ont échoué en raison d'entrées non valides, comme une demande de transcodage d'un fichier qui ne se trouve pas dans le compartiment d'entrée spécifié. +
+ `standbyTime` + + Secondes + + Nombre de secondes avant qu'AWS Elemental MediaConvert ne commence à transcoder une tâche. +
+ `transcodingTime` + + Secondes + + Nombre de secondes nécessaires à AWS Elemental MediaConvert pour terminer le transcodage. +
+ +### Données d'opération Elemental MediaConvert + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `errors` + + Compter + + erreurs +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elemental-mediapackage-vod-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elemental-mediapackage-vod-monitoring-integration.mdx new file mode 100644 index 00000000000..0881942bc3a --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elemental-mediapackage-vod-monitoring-integration.mdx @@ -0,0 +1,139 @@ +--- +title: Intégration monitoring VOD AWS Elemental MediaPackage +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Elemental MediaPackage VOD monitoring integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +Nous proposons une intégration cloud pour signaler vos données AWS MediaPackage VOD à notre plateforme. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration AWS MediaPackage VOD : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’intégration. + +Les données sont attachées aux [types d’événements](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivants : + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Configuration de l'emballage + + `AwsMediaPackageVODPackagingConfigurationSample` + + `AwsMediaPackageVODPackagingConfiguration` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données AWS MediaPackage VOD pour PackagingConfiguration. + +### Données de configuration du packaging VOD MediaPackage + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `egressBytes` + + Octets + + Nombre d'octets qu'AWS Elemental MediaPackage envoie avec succès pour chaque demande. Si MediaPackage ne reçoit aucune requests de sortie dans l'intervalle spécifié, aucune donnée n'est fournie. +
+ `egressResponseTime` + + Millisecondes + + Le temps nécessaire à AWS Elemental MediaPackage pour traiter chaque demande de sortie. Si MediaPackage ne reçoit aucune requests de sortie dans l'intervalle spécifié, aucune donnée n'est fournie. +
+ `egressRequestCount` + + Compter + + Nombre de requests de contenu reçues par AWS Elemental MediaPackage. Si MediaPackage ne reçoit aucune requests de sortie dans l'intervalle spécifié, aucune donnée n'est fournie. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elemental-mediatailor-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elemental-mediatailor-monitoring-integration.mdx new file mode 100644 index 00000000000..550b811d177 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elemental-mediatailor-monitoring-integration.mdx @@ -0,0 +1,578 @@ +--- +title: Intégration monitoring AWS Elemental MediaTailor +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Elemental MediaTailor integration: what data it reports and how to enable it.' +freshnessValidatedDate: '2023-10-04T00:00:00.000Z' +translationType: machine +--- + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut désormais une intégration pour AWS Elemental MediaTailor, envoyant ses données métriques à New Relic. + +Ce document explique la fonctionnalité de l'intégration, comment l'activer et quelles données peuvent être signalées. + +## Caractéristiques [#features] + +Collectez et envoyez des données télémétriques à New Relic depuis votre [AWS Elemental MediaTailor](https://aws.amazon.com/mediatailor/) en utilisant notre intégration. Monitorer vos services, interrogez les données entrantes et créez un dashboard pour tout observer en un coup d'œil. + +## Activer l'intégration [#active-integration] + +Pour activer cette intégration, découvrez comment [connecter les services AWS à New Relic](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup/). + +## Rechercher et utiliser des données [#find-data] + +Pour trouver les métriques de votre intégration, accédez à **[one.newrelic.com](https://one.newrelic.com/all-capabilities) > Metrics and events** et filtrez par `aws.mediatailor`. + +## données métriques [#metrics] + +Cette intégration de New Relic Infrastructure collecte les données AWS Elemental MediaTailor suivantes : + +Toutes les données importées ont une dimension : `ConfigurationName` + +### Données métriques AWS Elemental MediaTailor [#mediatailor-metrics] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique (min, max, moyenne, compte, somme) + + Unité + + Description +
+ `4xxErrorCount` + + Compter + + Le nombre d'erreurs 4xx. +
+ `5xxErrorCount` + + Compter + + Le nombre d'erreurs 5xx. +
+ `RequestCount` + + Compter + + Le nombre total de requests. +
+ `TotalTime` + + Millisecondes + + La durée nécessaire au serveur d'applications pour traiter la demande, y compris le temps utilisé pour recevoir et écrire des octets du client et du réseau. +
+ `AdDecisionServer.Ads` + + Compter + + Nombre d'annonces incluses dans les réponses du serveur de décision publicitaire (ADS) au cours de la période CloudWatch que vous avez spécifiée. +
+ `AdDecisionServer.Duration` + + Millisecondes + + La durée totale, en millisecondes, de toutes les annonces que MediaTailor a reçues de l'ADS au cours de la période CloudWatch que vous avez spécifiée. +
+ `AdDecisionServer.Errors` + + Compter + + Nombre de réponses de code d'état non HTTP 200, de réponses vides et de réponses expirées que MediaTailor a reçues de l'ADS au cours de la période CloudWatch que vous avez spécifiée. +
+ `AdDecisionServer.FillRate` + + Pour cent + + La moyenne simple des taux auxquels les réponses des ADS ont rempli les annonces individuelles correspondantes disponibles pour la période que vous avez spécifiée. +
+ `AdDecisionServer.Latency` + + Millisecondes + + Le temps de réponse en millisecondes pour requests faites par MediaTailor à l'ADS. +
+ `AdDecisionServer.Timeouts` + + Compter + + Le nombre de requests expirées adressées à l'ADS au cours de la période CloudWatch que vous avez spécifiée. +
+ `AdNotReady` + + Compter + + Le nombre de fois que l'ADS a pointé vers une annonce qui n'avait pas encore été transcodée par le service de transcodage interne au cours de la période que vous avez spécifiée. +
+ `AdsBilled` + + Compter + + Le nombre d'annonces pour lesquelles MediaTailor facture les clients en fonction de l'insertion. +
+ `Avail.Duration` + + Millisecondes + + Le nombre total prévu de millisecondes de publicité disponible au cours de la période CloudWatch. +
+ `Avail.FilledDuration` + + Millisecondes + + Le nombre prévu de millisecondes de temps de disponibilité des publicités que MediaTailor remplira avec des publicités au cours de la période CloudWatch. +
+ `Avail.FillRate` + + Pour cent + + La moyenne simple prévue des taux auxquels MediaTailor remplira les disponibilités d'annonces individuelles au cours de la période CloudWatch. +
+ `Avail.Impression` + + Compter + + Le nombre d'annonces avec événement de suivi d'impression que MediaTailor voit pendant le balisage côté serveur (pas le nombre d'impressions). +
+ `Avail.ObservedDuration` + + Millisecondes + + Nombre total observé de millisecondes de diffusion d'annonces au cours de la période CloudWatch. +
+ `Avail.ObservedFilledDuration` + + Millisecondes + + Le nombre observé de millisecondes de temps de disponibilité des publicités que MediaTailor a rempli avec des publicités au cours de la période CloudWatch. +
+ `Avail.ObservedFillRate` + + Pour cent + + La moyenne simple observée des taux auxquels MediaTailor a rempli les annonces individuelles disponibles au cours de la période CloudWatch. +
+ `Avail.ObservedSlateDuration` + + Millisecondes + + Le nombre total observé de millisecondes d'ardoise qui a été inséré dans la période CloudWatch. +
+ `GetManifest.Errors` + + Compter + + Nombre d'erreurs reçues pendant que MediaTailor générait des manifestes au cours de la période CloudWatch que vous avez spécifiée. +
+ `GetManifest.Latency` + + Millisecondes + + Le temps de réponse de MediaTailor en millisecondes pour la demande de génération de manifestes. +
+ `Origin.Errors` + + Compter + + Nombre de réponses de code d'état non HTTP 200 et de réponses expirées que MediaTailor a reçues du serveur d'origine au cours de la période CloudWatch que vous avez spécifiée. +
+ `Origin.Latency` + + Millisecondes + + Le temps de réponse aux requests effectuées par MediaTailor sur votre serveur d'origine de contenu. +
+ `Origin.ManifestFileSizeBytes` + + Octets + + La taille du fichier du manifeste d'origine en octets pour HLS et DASH. +
+ `Origin.ManifestFileSizeTooLarge` + + Compter + + Le nombre de réponses de l'origine dont la taille du manifeste est supérieure à la quantité configurée. +
+ `Origin.Timeouts` + + Compter + + Le nombre de requests expirées adressées au serveur d'origine au cours de la période CloudWatch que vous avez spécifiée. +
+ `Requests` + + Compter + + Le nombre de transactions simultanées par seconde sur tous les types de requêtes. +
+ `SkippedReason.DurationExceeded` + + Compter + + Le nombre d'annonces qui n'ont pas été insérées dans une disponibilité car les annonces ont renvoyé une durée d'annonces supérieure à la durée de disponibilité spécifiée. +
+ `SkippedReason.EarlyCueIn` + + Compter + + Le nombre de publicités ignorées en raison d'un CUE-IN précoce. +
+ `SkippedReason.InternalError` + + Compter + + Le nombre d'annonces ignorées en raison d'une erreur interne de MediaTailor. +
+ `SkippedReason.NewCreative` + + Compter + + Le nombre d'annonces qui n'ont pas été insérées dans un fichier disponible car c'était la première fois que l'élément était demandé par un client. +
+ `SkippedReason.NoVariantMatch` + + Compter + + Le nombre d'annonces ignorées en raison de l'absence de correspondance de variante entre l'annonce et le contenu. +
+ `SkippedReason.PersonalizationThresholdExceeded` + + Compter + + La durée des annonces dépassant le seuil de personnalisation défini dans cette configuration. +
+ `SkippedReason.ProfileNotFound` + + Compter + + Le nombre d'annonces ignorées en raison du profil de transcodage introuvable. +
+ `SkippedReason.TranscodeError` + + Compter + + Le nombre d'annonces ignorées en raison d'une erreur de transcodage. +
+ `SkippedReason.TranscodeInProgress` + + Compter + + Le nombre d'annonces qui n'ont pas été insérées dans un fichier de disponibilité car l'annonce n'avait pas encore été transcodée. +
+ +### Créer des alertes [#create-alerts] + +Vous pouvez configurer pour qu'il vous avertisse en cas de changement. Par exemple, vous pouvez configurer une alerte pour informer les parties concernées des erreurs critiques ou fatales. + +En savoir plus sur la création d’alertes [ici](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-emr-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-emr-monitoring-integration.mdx new file mode 100644 index 00000000000..6678f7bf44c --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-emr-monitoring-integration.mdx @@ -0,0 +1,621 @@ +--- +title: Intégration monitoring Amazon EMR +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon EMR monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données [Amazon EMR (Elastic MapReduce)](https://aws.amazon.com/emr/) à New Relic. Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +## Caractéristiques [#features] + +Vous pouvez monitorer et alerter sur vos données EMR directement depuis [New Relic](/docs/infrastructure), interroger les données et créer un dashboard. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation par défaut](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) pour l'intégration Amazon EMR : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Résolution : 1 point de données toutes les 5 minutes + +## Explorer les données d'intégration [#find-data] + +Pour utiliser vos [données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data), accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration EMR. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `ElasticMapReduceClusterSample`, avec une valeur `provider` de `ElasticMapReduceCluster`. + +## données métriques [#metrics] + +Cette intégration collecte les données Amazon EMR suivantes. Pour les cas d'utilisation et les informations supplémentaires, consultez [la documentation EMR d'Amazon](https://docs.aws.amazon.com/emr/latest/ManagementGuide/UsingEMR_ViewingMetrics.html#UsingEMR_ViewingMetrics_MetricsReported). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `isIdle` + + Indique qu'un cluster n'effectue plus de travail, mais qu'il est toujours actif et accumule des charges. Il est défini sur 1 si aucune tâche n'est en cours d'exécution et aucun travail n'est en cours d'exécution, et défini sur 0 dans le cas contraire. + + Cette valeur est vérifiée toutes les cinq minutes et une valeur de 1 indique uniquement que le cluster était inactif lors de la vérification, et non qu'il était inactif pendant les cinq minutes entières. Recommandation : Pour éviter les faux positifs, augmentez un seuil d'alerte lorsque cette valeur est à 1 pendant plus d'un contrôle consécutif de cinq minutes. Par exemple, déclenchez une alerte sur cette valeur si elle est égale à 1 depuis trente minutes ou plus. +
+ `coreNodesRunning` + + Le nombre de nœuds principaux en fonctionnement. Les points de données pour cette métrique sont signalés uniquement lorsqu'un groupe instance correspondant existe. +
+ `coreNodesPending` + + Le nombre de nœuds principaux en attente d’être attribués. Il se peut que tous les nœuds principaux demandés ne soient pas immédiatement disponibles ; cette mesure indique les requests en attente. Les points de données pour cette métrique sont signalés uniquement lorsqu'un groupe instance correspondant existe. +
+ `liveDataNodesPercentage` + + Le pourcentage de nœuds de données qui reçoivent du travail de Hadoop. +
+ `s3WrittenBytes` + + Le nombre d'octets écrits sur Amazon S3. Cette métrique regroupe uniquement les tâches MapReduce. Cela ne s’applique pas aux autres charges de travail sur EMR. +
+ `s3ReadBytes` + + Le nombre d'octets lus depuis Amazon S3. Cette métrique regroupe uniquement les tâches MapReduce et ne s'applique pas aux autres charges de travail sur EMR. +
+ `hdfsUtilizationPercentage` + + Le pourcentage de stockage HDFS actuellement utilisé. +
+ `hdfsReadBytes` + + Le nombre d'octets lus à partir de HDFS. +
+ `hdfsWrittenBytes` + + Le nombre d'octets écrits sur HDFS. +
+ `missingBlocks` + + Le nombre de blocs dans lesquels HDFS n'a pas de répliques. Il peut s'agir de blocs corrompus. +
+ `totalLoad` + + Le nombre total actuel de lecteurs et d'écrivains signalés par tous les DataNodes d'un cluster. +
+ `mostRecentBackupDurationMinutes` + + Le temps nécessaire à la sauvegarde précédente pour être terminée. Cette métrique est définie indépendamment du fait que la dernière sauvegarde terminée ait réussi ou échoué. + + Pendant que la sauvegarde est en cours, cette métrique renvoie le nombre de minutes après le début de la sauvegarde. Cette métrique est uniquement signalée pour le cluster HBase. +
+ `timeSinceLastSuccessfulBackupMinutes` + + Le nombre de minutes écoulées après le démarrage de la dernière sauvegarde HBase réussie sur votre cluster. Cette métrique est uniquement signalée pour le cluster HBase. +
+ +Les métriques suivantes apparaissent dans l’exemple en fonction de la version Hadoop de la ressource. + +### Métriques des AMI Hadoop 1 [#hadoop-1] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `jobsRunning` + + Le nombre de tâches du cluster actuellement en cours d'exécution. +
+ `jobsFailed` + + Le nombre de tâches du cluster qui ont échoué. +
+ `mapTasksRunning` + + Le nombre de tâches cartographiques en cours d'exécution pour chaque travail. Si vous avez un planificateur installé et plusieurs tâches en cours d'exécution, plusieurs graphiques sont générés. +
+ `mapTasksRemaining` + + Le nombre de tâches cartographiques restantes pour chaque travail. Si vous avez un planificateur installé et plusieurs tâches en cours d'exécution, plusieurs graphiques sont générés. Une tâche de carte restante est une tâche qui n’est dans aucun des états suivants : `Running`, `Killed` ou `Completed`. +
+ `mapSlotsOpen` + + La capacité de tâche de carte inutilisée. Il s'agit du nombre maximal de tâches cartographiques pour un cluster donné, moins le nombre total de tâches cartographiques actuellement en cours d'exécution dans ce cluster. +
+ `remainingMapTasksPerSlot` + + Le rapport entre le nombre total de tâches de carte restantes et le nombre total d'emplacements de carte disponibles dans le cluster. +
+ `reduceTasksRunning` + + Le nombre de tâches de réduction en cours d'exécution pour chaque travail. Si vous avez un planificateur installé et plusieurs tâches en cours d'exécution, plusieurs graphiques sont générés. +
+ `reduceTasksRemaining` + + Le nombre de tâches de réduction en cours d'exécution pour chaque travail. Si vous avez un planificateur installé et plusieurs tâches en cours d'exécution, plusieurs graphiques sont générés. +
+ `reduceSlotsOpen` + + Capacité de tâche réduite inutilisée. Il s'agit de la capacité maximale de réduction des tâches pour un cluster donné, moins le nombre de tâches de réduction actuellement en cours d'exécution dans ce cluster. +
+ `taskNodesRunning` + + Le nombre de nœuds de tâches en cours d'exécution. Les points de données pour cette métrique sont signalés uniquement lorsqu'un groupe instance correspondant existe. +
+ `taskNodesPending` + + Le nombre de nœuds principaux en attente d’être attribués. Il se peut que tous les nœuds de tâches demandés ne soient pas immédiatement disponibles ; cette mesure indique les requests en attente. Les points de données pour cette métrique sont signalés uniquement lorsqu'un groupe instance correspondant existe. +
+ `liveTaskTrackersPercentage` + + Le pourcentage de suivi des tâches qui sont fonctionnels. +
+ `backupFailed` + + Si la dernière sauvegarde a échoué. Cette valeur est définie sur 0 par défaut et mise à jour sur 1 si la tentative de sauvegarde précédente a échoué. Cette métrique est uniquement signalée pour le cluster HBase. +
+ +### Métriques des AMI Hadoop 2 [#hadoop-2] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `containerAllocated` + + Le nombre de conteneurs de ressources alloués par le ResourceManager. +
+ `containerReserved` + + Le nombre de conteneurs de ressources alloués par le ResourceManager. +
+ `containerPending` + + Le nombre de conteneurs dans la file d'attente qui n'ont pas encore été alloués. +
+ `containerPendingRatio` + + Le rapport entre le conteneur en attente et le conteneur alloué. +
+ `appsCompleted` + + Le nombre de candidatures soumises à YARN qui ont été finalisées. +
+ `appsFailed` + + Le nombre de candidatures soumises à YARN qui n'ont pas été finalisées. +
+ `appsKilled` + + Le nombre d'applications soumises à YARN qui ont été supprimées. +
+ `appsPending` + + Le nombre de demandes soumises à YARN qui sont en attente. +
+ `appsRunning` + + Le nombre d'applications soumises à YARN qui sont en cours d'exécution. +
+ `appsSubmitted` + + Le nombre de candidatures soumises à YARN. +
+ `mrTotalNodes` + + Le nombre de nœuds actuellement disponibles pour les tâches MapReduce. +
+ `mrActiveNodes` + + Le nombre de nœuds exécutant actuellement des tâches ou des travaux MapReduce. +
+ `mrLostNodes` + + Le nombre de nœuds alloués à MapReduce qui ont été marqués dans un état PERDU. +
+ `mrUnhealthyNodes` + + Le nombre de nœuds disponibles pour les tâches MapReduce marqués dans un état NON SAIN. +
+ `mrDecommissionedNodes` + + Le nombre de nœuds alloués aux applications MapReduce qui ont été marqués dans un état DÉCOMMISSIONNÉ. +
+ `mrRebootedNodes` + + Le nombre de nœuds disponibles pour MapReduce qui ont été redémarrés et marqués dans un état REBOOTED. +
+ `corruptBlocks` + + Le nombre de blocs que HDFS signale comme corrompus. +
+ `memoryTotalBytes` + + La quantité totale de mémoire dans le cluster. +
+ `memoryReservedBytes` + + La quantité de mémoire réservée. +
+ `memoryAvailableBytes` + + La quantité de mémoire disponible à allouer. +
+ `memoryAllocatedBytes` + + La quantité de mémoire allouée au cluster. +
+ `yarnMemoryAvailablePercentage` + + Le pourcentage de mémoire restant disponible pour YARN +
+ `underReplicatedBlocks` + + Le nombre de blocs qui doivent être répliqués une ou plusieurs fois. +
+ `dfsPendingReplicationBlocks` + + L'état de la réplication des blocs : blocs en cours de réplication, âge des requests de réplication et requests de réplication infructueuses. +
+ `capacityRemainingBytes` + + La quantité de capacité restante du disque HDFS. +
+ `hbaseBackupFailed` + + Si la dernière sauvegarde a échoué. Cette valeur est définie sur 0 par défaut et mise à jour sur 1 si la tentative de sauvegarde précédente a échoué. Cette métrique est uniquement signalée pour le cluster HBase. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-fsx-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-fsx-monitoring-integration.mdx new file mode 100644 index 00000000000..8b5ce0ffc96 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-fsx-monitoring-integration.mdx @@ -0,0 +1,181 @@ +--- +title: Intégration monitoring AWS FSx +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS FSx monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +Nous proposons une intégration cloud pour signaler vos données AWS FSx à notre plateforme. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration AWS FSx : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’intégration. + +Les données sont attachées aux [types d’événements](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivants : + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Serveur de fichiers Windows + + `AwsFsxWindowsFileServerSample` + + `AwsFsxWindowsFileServer` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données AWS FSx pour WindowsFileServer. + +### Données du serveur de fichiers Windows FSx + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `dataReadBytes` + + Octets + + Le nombre d'octets pour les opérations de lecture du système de fichiers +
+ `dataWriteBytes` + + Octets + + Le nombre d'octets pour les opérations d'écriture du système de fichiers. +
+ `dataReadOperations` + + Compter + + Le nombre d'opérations de lecture +
+ `dataWriteOperations` + + Compter + + Le nombre d'opérations d'écriture +
+ `metadataOperations` + + Compter + + Le nombre d'opérations de métadonnées +
+ `freeStorageCapacity` + + Octets + + La quantité de capacité de stockage disponible +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-glue-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-glue-monitoring-integration.mdx new file mode 100644 index 00000000000..d6c2e0ebc17 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-glue-monitoring-integration.mdx @@ -0,0 +1,407 @@ +--- +title: Intégration monitoring AWS Glue +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Glue monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + Actuellement, AWS métriques CloudWatch prend en charge uniquement les tâches ETL AWS Glue Spark. Ils ne prennent pas en charge les tâches AWS Glue Python Shell. Une demande de fonctionnalité active a été soumise à l'équipe AWS Glue pour inclure cette prise en charge. + + +New Relic propose une intégration pour générer des rapports sur vos données [AWS Glue](https://aws.amazon.com/glue/) . Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration AWS Glue : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez une intégration. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Emploi + + `AwsGlueJobSample` + + `AwsGlueJob` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données AWS Glue pour Job. + +### Données sur le travail de collage + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `glue.driver.aggregate.bytesRead` + + Octets + + Le nombre d'octets lus à partir de toutes les sources de données par toutes les tâches Spark terminées exécutées dans tous les exécuteurs. +
+ `glue.driver.aggregate.elapsedTime` + + Millisecondes + + Le temps écoulé ETL en millisecondes (n'inclut pas les temps bootstrap du travail). +
+ `glue.driver.aggregate.numCompletedStages` + + Compter + + Le nombre d’étapes terminées dans le travail. +
+ `glue.driver.aggregate.numCompletedTasks` + + Compter + + Le nombre de tâches terminées dans le travail. +
+ `glue.driver.aggregate.numFailedTasks` + + Compter + + Le nombre de tâches échouées. +
+ `glue.driver.aggregate.numKilledTasks` + + Compter + + Le nombre de tâches supprimées. +
+ `glue.driver.aggregate.recordsRead` + + Compter + + Nombre d'enregistrements lus à partir de toutes les sources de données par toutes les tâches Spark terminées exécutées dans tous les exécuteurs. +
+ `glue.driver.aggregate.shuffleBytesWritten` + + Octets + + Le nombre d'octets écrits par tous les exécuteurs pour mélanger les données entre eux depuis le rapport précédent (agrégé par le dashboard AWS Glue Métriques comme le nombre d'octets écrits à cette fin au cours de la minute précédente). +
+ `glue.driver.aggregate.shuffleLocalBytesRead` + + Octets + + Le nombre d'octets lus par tous les exécuteurs pour mélanger les données entre eux depuis le rapport précédent (agrégé par le dashboard AWS Glue Métriques comme le nombre d'octets lus à cette fin au cours de la minute précédente). +
+ `glue.driver.BlockManager.disk.diskSpaceUsed_MB` + + Octets + + Le nombre de mégaoctets d’espace disque utilisé par tous les exécuteurs. +
+ `glue.driver.ExecutorAllocationManager.executors.numberAllExecutors` + + Compter + + Le nombre d'exécuteurs de tâches en cours d'exécution. +
+ `glue.driver.ExecutorAllocationManager.executors.numberMaxNeededExecutors` + + Compter + + Le nombre maximal d'exécuteurs de tâches (en cours d'exécution et en attente) nécessaires pour satisfaire la charge actuelle. +
+ `glue.driver.jvm.heap.usage` + + Pour cent + + La fraction de mémoire utilisée par le tas JVM pour ce pilote (échelle : 0-1) pour le pilote. +
+ `glue.ALL.jvm.heap.usage` + + Pour cent + + La fraction de mémoire utilisée par le tas JVM pour ce pilote (échelle : 0-1) pour TOUS les exécuteurs. +
+ `glue.driver.jvm.heap.used` + + Octets + + Le nombre d'octets de mémoire utilisés par le tas JVM pour le pilote. +
+ `glue.ALL.jvm.heap.used` + + Octets + + Le nombre d'octets de mémoire utilisés par le tas JVM pour TOUS les exécuteurs. +
+ `glue.driver.s3.filesystem.read_bytes` + + Octets + + Nombre d'octets lus depuis Amazon S3 par le pilote depuis le rapport précédent (agrégé par le dashboard AWS Glue Métriques comme le nombre d'octets lus au cours de la minute précédente). +
+ `glue.ALL.s3.filesystem.read_bytes` + + Octets + + Nombre d'octets lus depuis Amazon S3 par TOUS les exécuteurs depuis le rapport précédent (agrégé par le dashboard AWS Glue Métriques comme le nombre d'octets lus au cours de la minute précédente). +
+ `glue.driver.s3.filesystem.write_bytes` + + Octets + + Nombre d'octets écrits sur Amazon S3 par le pilote depuis le rapport précédent (agrégé par le dashboard AWS Glue Métriques comme le nombre d'octets écrits au cours de la minute précédente). +
+ `glue.ALL.s3.filesystem.write_bytes` + + Octets + + Nombre d'octets écrits sur Amazon S3 par TOUS les exécuteurs depuis le rapport précédent (agrégé par le dashboard AWS Glue Métriques comme le nombre d'octets écrits au cours de la minute précédente). +
+ `glue.driver.system.cpuSystemLoad` + + Pour cent + + La fraction de la charge système du processeur utilisée (échelle : 0-1) par le pilote. +
+ `glue.ALL.system.cpuSystemLoad` + + Pour cent + + La fraction de la charge système CPU utilisée (échelle : 0-1) par TOUS les exécuteurs. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-health-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-health-monitoring-integration.mdx new file mode 100644 index 00000000000..64399eb753d --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-health-monitoring-integration.mdx @@ -0,0 +1,238 @@ +--- +title: AWS Health monitoring Intégration +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Health integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données AWS Health à New Relic. Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +## Caractéristiques [#features] + +Cette intégration collecte des informations auprès d'[AWS Health](https://docs.aws.amazon.com/health/latest/ug/what-is-aws-health.html) sur les événements pouvant affecter les ressources et services AWS à l'échelle mondiale ou dans un compte spécifique. Ces données peuvent vous aider à anticiper les pannes potentielles des applications. + +AWS Health signale trois types d’événements : + +* **Open issues**:Affiche les problèmes susceptibles d'affecter votre infrastructure AWS. +* **Scheduled changes**: Vous informe à l'avance des activités planifiées susceptibles d'avoir un impact sur les services et les ressources AWS. +* **Notifications**:Fournit des informations supplémentaires. + +L'événement de santé sera lié à l'entité existante pour les ressources AWS EC2 et héritera de toutes les métadonnées d'entité disponibles telles que la région, la zone de disponibilité, la balise de ressource et plus encore. + +Pour voir la liste complète des attributs disponibles, utilisez la fonction `keyset` : + +``` + FROM AwsHealthNotification SELECT keyset() +``` + +## Exigences [#requirements] + +Cette intégration est disponible uniquement pour les clients AWS disposant d'un plan de support Business ou Enterprise, car il s'agit d'une exigence pour utiliser l'[API AWS Health](https://docs.aws.amazon.com/health/latest/ug/health-api.html). + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + + + Seuls les événements de santé survenus après l'activation de l'intégration AWS Health seront collectés. Les événements de santé survenus dans le passé ne seront pas collectés. + + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation par défaut](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) pour l'intégration AWS Health : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Explorer les données d'intégration [#find-use] + +Pour utiliser les données de cette intégration : + +1. Allez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**. +2. Sélectionnez l’un des liens d’intégration AWS Health disponibles. +3. Pour afficher une chronologie lorsqu'un événement de santé AWS est créé, modifié ou supprimé, utilisez la [page**Events** ](/docs/infrastructure/new-relic-infrastructure/infrastructure-ui-pages/infrastructure-events-page-live-feed-every-config-change). + +## monitoring des événements et alertes [#event-monitoring] + +Les événements AWS Health sont ingérés en tant que **AwsHealthNotification** événement. Vous pouvez requêter, créer un widget et définir une règle d'alerte NRQL en fonction de ces événements. + +Le tableau suivant montre l'attribut principal disponible pour l'événement **AwsHealthNotification** : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ événement attribut + + Description +
+ `affectedEntityArn` + + L'ARN de la ressource AWS. +
+ `arn` + + L'ARN de l'événement de santé AWS lui-même. +
+ `affectedRegion` + + La région AWS touchée. +
+ `affectedResources` + + Nombre de ressources affectées. Métrique générée automatiquement qui peut être utilisée pour définir les conditions New Relic . +
+ `description` + + Description détaillée de l'événement. +
+ `eventTypeCategory` + + Catégorie AWS Health : problème, modification planifiée, notification de compte, enquête. +
+ `eventTypeCode` + + Une liste d'identifiants uniques pour les types d'événements. Par exemple,`AWS_EC2_SYSTEM_MAINTENANCE_EVENT` ou `AWS_RDS_MAINTENANCE_SCHEDULED`. +
+ `service` + + Les services AWS associés à l'événement. Par exemple, EC2, RDS. +
+ `statusCode` + + L’état de l’événement de santé AWS : `Open`, `Closed`, `Upcoming`. +
+ `startTime` + + La date et l'heure de début de l'événement (au format chaîne). +
+ `startTimestamp` + + L'horodatage de l'époque (en secondes) pour le début de l'événement. +
+ `endTime` + + La date et l'heure de résolution de l'événement (au format chaîne). +
+ `endTimestamp` + + L'horodatage de l'époque (en secondes) pour la résolution de l'événement. +
+ `lastUpdatedTime` + + La date et l'heure de la dernière mise à jour de l'événement reçue (au format chaîne). +
+ `lastUpdatedTimestamp` + + L'horodatage de l'époque (en secondes) pour la dernière mise à jour d'événement reçue. +
+ +La condition d'alerte NRQL peut être définie pour recevoir une notification lorsque des événements de santé sont signalés par AWS. + +Par exemple, la requête suivante monitore tous les problèmes ouverts sur EC2 par ressource : + +``` +SELECT uniqueCount(affectedEntityArn) FROM AwsHealthNotification where statusCode = 'open' and eventTypeCategory = 'Issue' and service = 'EC2' +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-iam-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-iam-monitoring-integration.mdx new file mode 100644 index 00000000000..87bf94a5cf4 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-iam-monitoring-integration.mdx @@ -0,0 +1,50 @@ +--- +title: Intégration monitoring AWS IAM +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS IAM monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration AWS Identity and Access Management (IAM) pour signaler vos données IAM à New Relic. Ce document explique la fonctionnalité de l'intégration, comment l'activer et quelles données peuvent être signalées. + +## Caractéristiques [#features] + +[La gestion des identités et des accès (IAM)](https://aws.amazon.com/iam/) d'Amazon vous permet de contrôler en toute sécurité l'accès aux services AWS et aux ressources de votre utilisateur. À l’aide d’IAM, vous pouvez créer et gérer des utilisateurs et des groupes AWS, et utiliser des autorisations pour autoriser et refuser leur accès aux ressources AWS. + +L'intégration monitoring IAM de New Relic vous permet de capturer l'état des politiques, des utilisateurs, des groupes et des rôles à des moments précis. Les données IAM sont également disponibles [pour analyse](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure#insights). + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation par défaut](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) pour l'intégration AWS IAM : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver les données de cette intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration IAM. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `IamAccountSummarySample` . + +## données métriques [#metrics] + +L'intégration IAM ne capture aucune mesure de performance au sens traditionnel du terme. Mais l'intégration monitore l'état des politiques de service IAM, des utilisateurs, des groupes et des rôles à des moments précis et l'utilise pour créer ces métriques basées sur le comptage : + +* Certificats par compte +* Groupes par compte +* Appareils MFA par compte +* Rôles par compte +* utilisateur par compte \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-internet-monitor-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-internet-monitor-integration.mdx new file mode 100644 index 00000000000..fe88b60df54 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-internet-monitor-integration.mdx @@ -0,0 +1,344 @@ +--- +title: Intégration du moniteur Internet Amazon CloudWatch +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'The New Relic Amazon CloudWatch Internet Monitor integration: what data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +Notre intégration de moniteur Internet AWS CloudWatch rapporte vos données de moniteur Internet CloudWatch à la plateforme New Relic. + +## Caractéristiques [#features] + +Avec cette intégration, vous pouvez collecter et envoyer des données télémétriques à New Relic depuis votre [moniteur InternetCloudWatch ](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-InternetMonitor.html). Une fois intégré, vous pouvez monitorer vos services, interroger les données entrantes, monitorer le log et utiliser un dashboard prédéfini pour tout observer en un coup d'œil. + +## Obtenir des données métriques [#get-metrics-data] + +Nous avons deux options pour signaler ces données. Le chemin recommandé consiste à configurer notre [intégration Amazon flux de métriques CloudWatch ](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream). Alternativement, vous pouvez utiliser notre [ancienne intégration Amazon qui s'appuie sur des sondages](/docs/infrastructure/infrastructure-integrations/cloud-integrations/configure-polling-frequency-data-collection-cloud-integrations). + +## Obtenir les données du log [#get-logs-data] + +Les données de log peuvent être signalées à New Relic à l'aide de notre [Log ingestion Lambda](/docs/logs/forward-logs/aws-lambda-sending-cloudwatch-logs). Assurez-vous d'[ajouter des déclencheurs](/docs/logs/forward-logs/aws-lambda-sending-cloudwatch-logs/#create-trigger) au Lambda et de sélectionner le groupe log correspondant à `internet-monitor` aux niveaux `country`, `city`, `subdivision` et `metro`. + +## Rechercher et utiliser des données [#find-use-data] + +Les données métriques de cette intégration sont attachées au type de données `Metric` . Pour voir vos données : allez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Metrics and events** et filtrez par `aws.internetmonitor`. + +## données métriques [#metric-data] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique (min, max, moyenne, compte, somme) + + Unité + + Description +
+ `TrafficMonitoredPercent` + + pourcentage + + Pourcentage du trafic Internet total de l'application pour ce moniteur. +
+ `CityNetworksFor100PercentTraffic` + + pourcentage + + Le nombre auquel vous devez définir la limite maximale de vos réseaux urbains si vous souhaitez monitorer 100 % du trafic Internet de votre application dans Internet Monitor. +
+ `CityNetworksFor99PercentTraffic` + + pourcentage + + Le nombre sur lequel vous devez définir la limite maximale de vos réseaux urbains si vous souhaitez monitorer 99 % du trafic Internet de votre application dans Internet Monitor. +
+ `CityNetworksFor95PercentTraffic` + + pourcentage + + Le nombre que vous devez définir comme limite maximale pour vos réseaux urbains si vous souhaitez monitorer 95 % du trafic Internet de votre application dans Internet Monitor. +
+ `CityNetworksFor90PercentTraffic` + + pourcentage + + Le nombre que vous devez définir comme limite maximale de vos réseaux urbains si vous souhaitez monitorer 90 % du trafic Internet de votre application dans Internet Monitor. +
+ `CityNetworksFor75PercentTraffic` + + pourcentage + + Le nombre que vous devez définir comme limite maximale pour vos réseaux urbains si vous souhaitez monitorer 75 % du trafic Internet de votre application dans Internet Monitor. +
+ `CityNetworksFor50PercentTraffic` + + pourcentage + + Le nombre que vous devez définir comme limite maximale pour vos réseaux urbains si vous souhaitez monitorer 50 % du trafic Internet de votre application dans Internet Monitor. +
+ `CityNetworksFor25PercentTraffic` + + pourcentage + + Le nombre que vous devez définir comme limite maximale pour vos réseaux urbains si vous souhaitez monitorer 25 % du trafic Internet de votre application dans Internet Monitor. +
+ `AvailabilityScore` + + pourcentage + + Traffic qui ne voit pas d'anomalie d'accessibilité. +
+ `PerformanceScore` + + pourcentage + + Traffic qui ne voit pas d'anomalie de latence. +
+ `BytesIn` + + compter + + Octets reçus. +
+ `BytesOut` + + compter + + Octets envoyés. +
+ `RoundTripTime` + + MS + + Combien de temps prend une demande. +
+ +## Données du log [#logs-data] + +Nous fournissons des informations détaillées sur le log obtenu depuis AWS CloudWatch. Voici les principales métriques reçues du log. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Balise de log + + Unité + + Description +
+ `aws.logGroup` + + Chaîne + + Différents groupes log configurés dans AWS pour `country`, `subdivision`, `metro` et `city`. +
+ `experienceScore` + + pourcentage + + Calculé en incluant les scores de performance et de disponibilité, et lorsque le moniteur Internet crée et résout un événement de santé. +
+ `PercentOfClientLocationImpacted` + + pourcentage + + Quel impact sur les performances a été causé par un événement de santé sur le site d'un client ? +
+ `PercentOfTotalTrafficImpacted` + + pourcentage + + L'impact sur le trafic total d'un événement de santé, en termes de latence accrue ou de disponibilité réduite. +
+ `RoundTripTime` + + pourcentage + + Pourcentage de l'augmentation du temps de trajet aller-retour pendant l'événement par rapport au temps de trajet aller-retour typique de votre application pour le trafic. +
+ `percentageOfTotalTraffic` + + pourcentage + + Calculé en incluant les scores de performance et de disponibilité et lorsque le moniteur Internet crée et résout un événement de santé. +
+ +## Conseils pour utiliser vos données [#use-data] + +Vous pouvez créer pour vous informer de tout changement en cours. Par exemple, une alerte peut être configurée pour informer les parties concernées des erreurs critiques ou fatales. [En savoir plus sur la création d'alertes](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-iot-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-iot-monitoring-integration.mdx new file mode 100644 index 00000000000..3bdf428f4cd --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-iot-monitoring-integration.mdx @@ -0,0 +1,436 @@ +--- +title: Intégration monitoring AWS IoT +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS IoT monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +New Relic propose une [intégration](/docs/infrastructure/introduction-infra-monitoring) pour rapporter vos [données métriques](/docs/telemetry-data-platform/understand-data/new-relic-data-types/#metrics-new-relic) AWS IoT. + +[AWS IoT](https://docs.aws.amazon.com/iot/latest/developerguide/what-is-aws-iot.html) est un service qui assure la communication entre les appareils connectés à Internet et le cloud AWS. Il collecte et stocke également des données télémétriques. Avec l'intégration de l'infrastructure AWS IoT, vous pouvez accéder à ces fonctionnalités : + +* Affichez des graphiques et d'autres informations sur votre communication AWS IoT et vos données télémétriques. +* Créez des requêtes et des graphiques personnalisés dans New Relic à partir de données métriques capturées automatiquement. +* Définissez la condition d'alerte sur vos données d'intégration AWS IoT directement depuis la page New Relic **Integrations** . + +## Activer l'intégration [#connect] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Par défaut, New Relic interroge vos services AWS IoT [toutes les 5 minutes](/docs/integrations/amazon-integrations/get-started/polling-intervals-aws-integrations). Si vous souhaitez que New Relic interroge vos services moins souvent, vous pouvez [modifier la fréquence d'interrogation](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +## Explorer les données d'intégration [#find-data] + +Après [avoir connecté l'intégration AWS IoT à New Relic](/docs/integrations/amazon-integrations/getting-started/connect-aws-services-infrastructure) et attendu quelques minutes, vous pouvez [utiliser les données d'intégration](/docs/telemetry-data-platform/understand-data/new-relic-data-types/): + + + + + + + + + + + + + + + + + + + + + + + +
+ Afficher les données d'intégration AWS IoT + + Fais ceci +
+ et [alertes](/docs/infrastructure/new-relic-infrastructure/infrastructure-alert-conditions/infrastructure-alerts-add-edit-or-view-host-alert-information#integration) + + Allez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS > IoT**. +
+ [Données métriques](#metrics) sur dashboard personnalisé + + Accédez au [générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/query-builder-basic-mode) et créez une requête pour `IOTBrokerSample`, `IOTRuleActionSample` et `IOTRuleSample` événement. +
+ +## données métriques [#metrics] + +Pour afficher les données métriques pour votre intégration AWS IoT, [créez une requête NRQL ](/docs/integrations/new-relic-integrations/getting-started/use-integration-data-new-relic-insights#nrql)pour [l'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `IOTBrokerSample`, `IOTRuleActionSample` et `IOTRuleSample` et leur attribut associé. Pour plus d'informations sur les métriques et dimensions AWS IoT, consultez le [Guide des développeurs AWS IoT](https://docs.aws.amazon.com/iot/latest/developerguide/metrics_dimensions.html). + + + + Requête `IOTBrokerSample` événement pour afficher les données de l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `connect.AuthError` + + Nombre de requests de connexion que le courtier de messages n'a pas pu autoriser. +
+ `connect.ClientError` + + Nombre de requests de connexion rejetées car le message MQTT ne répondait pas aux [exigences AWS IoT](http://docs.aws.amazon.com/iot/latest/developerguide/iot-limits.html). +
+ `connect.ServerError` + + Nombre de requests de connexion qui ont échoué en raison d'une erreur interne. +
+ `connect.Success` + + Nombre de connexions réussies au courtier de messages. +
+ `connect.Throttle` + + Nombre de requests de connexion qui ont été limitées parce que le client a dépassé le taux de requêtes de connexion autorisé. +
+ `ping.Success` + + Nombre de messages ping reçus par le courtier de messages. +
+ `publishIn.AuthError` + + Nombre de requests de publication que le courtier de messages n'a pas pu autoriser. +
+ `publishIn.ClientError` + + Nombre de requests de publication que le courtier de messages a rejetées car le message ne répondait pas aux [exigences AWS IoT](http://docs.aws.amazon.com/iot/latest/developerguide/iot-limits.html). +
+ `publishIn.ServerError` + + Nombre de requests de publication que le courtier de messages n'a pas pu traiter en raison d'une erreur interne. +
+ `publishIn.Success` + + Nombre de requests de publication que le courtier de messages a traitées avec succès. +
+ `publishIn.Throttle` + + Nombre de requests de publication qui ont été limitées parce que le client a dépassé le débit de messages entrants autorisé. +
+ `publishOut.AuthError` + + Nombre de requests de publication effectuées par le courtier de messages qui n'ont pas pu être autorisées par AWS IoT. +
+ `publishOut.ClientError` + + Nombre de requests de publication effectuées par le courtier de messages qui ont été rejetées car le message ne répondait pas aux [exigences AWS IoT](http://docs.aws.amazon.com/iot/latest/developerguide/iot-limits.html). +
+ `publishOut.Success` + + Nombre de requests de publication que le courtier de messages a effectuées avec succès. +
+ `subscribe.AuthError` + + Nombre de requests d'abonnement effectuées par un client qui n'ont pas pu être autorisées. +
+ `subscribe.ClientError` + + Nombre de requests d'abonnement qui ont été rejetées car le message `SUBSCRIBE` ne répondait pas aux [exigences AWS IoT](http://docs.aws.amazon.com/iot/latest/developerguide/iot-limits.html). +
+ `subscribe.ServerError` + + Nombre de requests d'abonnement qui ont été rejetées en raison d'une erreur interne. +
+ `subscribe.Success` + + Nombre de requests d'abonnement que le courtier de messages a traitées avec succès. +
+ `subscribe.Throttle` + + Nombre de requests d'abonnement qui ont été limitées parce que le client a dépassé le taux de requêtes d'abonnement autorisé. +
+ `unsubscribe.ClientError` + + Nombre de requests de désabonnement qui ont été rejetées car le message `UNSUBSCRIBE` ne répondait pas aux [exigences AWS IoT](http://docs.aws.amazon.com/iot/latest/developerguide/iot-limits.html). +
+ `unsubscribe.ServerError` + + Nombre de requests de désabonnement qui ont été rejetées en raison d'une erreur interne. +
+ `unsubscribe.Success` + + Nombre de requests de désabonnement traitées avec succès par le courtier de messages. +
+ `unsubscribe.Throttle` + + Nombre de requests de désabonnement qui ont été rejetées car le client a dépassé le taux de requêtes de désabonnement autorisé. +
+ `deleteThingShadow.Accepted` + + Nombre de `DeleteThingShadow` requests traitées avec succès. +
+ `getThingShadow.Accepted` + + Nombre de `GetThingShadow` requests traitées avec succès. +
+ `updateThingShadow.Accepted` + + Nombre de `UpdateThingShadow` requests traitées avec succès. +
+
+ + + Requête `IOTRuleActionSample` événement pour afficher les données de l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `success` + + Nombre d'invocations d'actions de règle réussies. La dimension `RuleName` contient le nom de la règle qui spécifie l’action qui a été invoquée. La dimension `ActionType` contient le type d’action qui a été invoquée. +
+ `failure` + + Nombre d’invocations d’actions de règle ayant échoué. La dimension `RuleName` contient le nom de la règle qui spécifie l’action qui a été invoquée. La dimension `RuleName`contient le nom de la règle qui spécifie l'action. La dimension `ActionType` contient le type d’action qui a été invoquée. +
+
+ + + Requête `IOTRuleSample` événement pour afficher les données de l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `topicMatch` + + Le nombre de messages entrants publiés sur un sujet sur lequel une règle écoute. La dimension `RuleName` contient le nom de la règle. +
+ `parseError` + + Le nombre d'erreurs d'analyse JSON qui se sont produites dans les messages publiés sur une rubrique sur laquelle une règle écoute. La dimension `RuleName` contient le nom de la règle. +
+
+
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-iot-twinmaker-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-iot-twinmaker-integration.mdx new file mode 100644 index 00000000000..0345b403a79 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-iot-twinmaker-integration.mdx @@ -0,0 +1,116 @@ +--- +title: Intégration d'Amazon Twinmaker +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon IoT Twinmaker integration: what data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut désormais une intégration pour AWS IoT Twinmaker qui envoie ses données métriques à New Relic. Ce document explique la fonctionnalité de l'intégration, comment l'activer et quelles données elle peut rapporter. + +## Caractéristiques + +Collectez et envoyez des données télémétriques à New Relic depuis votre [WorkMail](https://aws.amazon.com/iot-twinmaker/) en utilisant notre intégration. Cela vous permet de monitorer vos services, d'interroger les données entrantes et de créer un dashboard pour tout observer en un coup d'œil. + +## Activer et utiliser l'intégration + +Pour activer cette intégration, découvrez comment [connecter les services AWS à New Relic](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup/). Pour trouver les métriques de votre intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Metrics and events** et filtrez par `aws.IoTTwinMaker`. + +## Données métriques WorkMail [#metrics] + +Cette intégration de New Relic Infrastructure collecte les données Amazon WorkMail suivantes : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique (min, max, moyenne, compte, somme) + + Unité + + Description +
+ `ComponentTypeCreationFailure` + + Compter + + Cette métrique indique le succès de la création d'un type de composant. +
+ `ComponentTypeUpdateFailure` + + Compter + + Cette métrique indique la réussite d'une mise à jour de type de composant. +
+ `EntityCreationFailure` + + Compter + + Cette métrique rend compte du succès d'une création d'entité. +
+ `EntityUpdateFailure` + + Compter + + Cette métrique rapporte le succès d’une mise à jour d’entité. +
+ `EntityDeletionFailure` + + Compter + + Cette métrique rapporte le succès d’une suppression d’entité. +
+ +Toutes les données importées ont une dimension : `WorkspaceId` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-kinesis-data-analytics-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-kinesis-data-analytics-monitoring-integration.mdx new file mode 100644 index 00000000000..0f1c6a5bece --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-kinesis-data-analytics-monitoring-integration.mdx @@ -0,0 +1,1329 @@ +--- +title: Intégration monitoring AWS Kinesis Data Analytics +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Kinesis Data Analytics monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +Notre [intégration demonitoring d'infrastructure ](/docs/infrastructure/introduction-infra-monitoring)inclut une intégration pour signaler vos données AWS Kinesis Data Analytics à nos produits. Lisez la suite pour en savoir plus sur la manière d’activer l’intégration et sur les données qu’elle collecte. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration AWS Kinesis Data Analytics : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d'intégration dans notre UI infrastructure, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez une intégration. + +Les données sont jointes au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Application + + `AwsKinesisAnalyticsApplicationSample` + + `AwsKinesisAnalyticsApplication` +
+ DemandeKpu + + `AwsKinesisAnalyticsApplicationSample` + + `AwsKinesisAnalyticsApplication` +
+ Tâche + + `AwsKinesisAnalyticsTaskSample` + + `AwsKinesisAnalyticsTask` +
+ Opérateur de tâche + + `AwsKinesisAnalyticsTaskOperatorSample` + + `AwsKinesisAnalyticsTaskOperator` +
+ Parallélisme des tâches + + `AwsKinesisAnalyticsTaskParallelismSample` + + `AwsKinesisAnalyticsTaskParallelism` +
+ Parallélisme de l'opérateur de tâche + + `AwsKinesisAnalyticsTaskOperatorParallelismSample` + + `AwsKinesisAnalyticsTaskOperatorParallelism` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données AWS Kinesis Data Analytics pour Application, ApplicationKpu, Task, TaskOperator, TaskParallelism et TaskOperatorParallelism. + +### Données d'application Kinesis Data Analytics + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `bytesConsumedRate` + + Octets par seconde + + Le nombre moyen d'octets consommés par seconde pour un sujet. +
+ `commitsFailed` + + Compter + + Nombre total d'échecs de validation de décalage sur Kafka, si la validation de décalage et le point de contrôle sont activés. +
+ `commitsSucceeded` + + Compter + + Le nombre total de validations de décalage réussies sur Kafka, si la validation de décalage et les points de contrôle sont activés. +
+ `cpuUtilization` + + Pour cent + + Pourcentage global d'utilisation du processeur dans les gestionnaires de tâches. Par exemple, s’il existe cinq gestionnaires de tâches, Kinesis Data Analytics publie cinq échantillons de cette métrique par intervalle de rapport. +
+ `currentInputWatermark` + + Millisecondes + + Le dernier filigrane que cette application/opérateur/tâche/thread a reçu. +
+ `currentOutputWatermark` + + Millisecondes + + Le dernier filigrane que cette application/opérateur/tâche/thread a émistre. +
+ `downtime` + + Millisecondes + + Pour les tâches actuellement en situation d'échec/de récupération, le temps écoulé pendant cette panne. +
+ `fullRestarts` + + Compter + + Le nombre total de fois où cette tâche a été entièrement redémarrée depuis sa soumission. Cette métrique ne mesure pas les redémarrages à granularité fine. +
+ `heapMemoryUtilization` + + Pour cent + + Utilisation globale de la mémoire du tas dans les gestionnaires de tâches. Par exemple, s’il existe cinq gestionnaires de tâches, Kinesis Data Analytics publie cinq échantillons de cette métrique par intervalle de rapport. +
+ `lastCheckpointDuration` + + Millisecondes + + Le temps qu'il a fallu pour franchir le dernier point de contrôle. +
+ `lastCheckpointSize` + + Octets + + La taille totale du dernier point de contrôle. +
+ `numRecordsInPerSecond` + + Compter par seconde + + Le nombre total d'enregistrements que cet opérateur ou cette tâche a reçus par seconde. +
+ `numRecordsOut` + + Compter + + Le nombre total d'enregistrements que cet opérateur ou cette tâche a émis. +
+ `numRecordsOutPerSecond` + + Compter par seconde + + Le nombre total d'enregistrements que cet opérateur ou cette tâche doit émettre par seconde. +
+ `numberOfFailedCheckpoints` + + Compter + + Le nombre de fois où le point de contrôle a échoué. +
+ `numRecordsIn` + + Compter + + Le nombre total d’enregistrements que cet opérateur ou cette tâche a reçus. +
+ `oldGenerationGcCount` + + Compter + + Le nombre total d'anciennes opérations de récupération de place qui ont eu lieu dans tous les gestionnaires de tâches. +
+ `oldGenerationGcTime` + + Millisecondes + + Le temps total passé à effectuer d'anciennes opérations de collecte des déchets. +
+ `recordsLagMax` + + Compter + + Le décalage maximal en termes de nombre d'enregistrements pour n'importe quelle partition dans cette fenêtre. +
+ `threadsCount` + + Compter + + Le nombre total de threads actifs utilisés par l'application. +
+ `uptime` + + Millisecondes + + Le temps pendant lequel le travail a été exécuté sans interruption. +
+ `bytes` + + Octets + + Le nombre d'octets lus (par flux d'entrée) ou écrits (par flux de sortie). +
+ `inputProcessing.DroppedRecords` + + Compter + + Le nombre d'enregistrements renvoyés par une fonction Lambda qui ont été marqués avec le statut Abandonné. +
+ `inputProcessing.Duration` + + Millisecondes + + Le temps nécessaire à chaque invocation de la fonction AWS Lambda effectuée par Kinesis Data Analytics. +
+ `inputProcessing.OkBytes` + + Compter + + La somme des octets des enregistrements renvoyés par une fonction Lambda qui ont été marqués avec le statut Ok. +
+ `inputProcessing.OkRecords` + + Compter + + Le nombre d'enregistrements renvoyés par une fonction Lambda qui ont été marqués avec le statut Ok. +
+ `inputProcessing.ProcessingFailedRecords` + + Compter + + Le nombre d'enregistrements renvoyés par une fonction Lambda qui ont été marqués avec le statut ProcessingFailed. +
+ `inputProcessing.Success` + + Compter + + Le nombre d'invocations Lambda réussies par Kinesis Data Analytics. +
+ `lambdaDelivery.DeliveryFailedRecords` + + Compter + + Le nombre d'enregistrements renvoyés par une fonction Lambda qui ont été marqués avec le statut DeliveryFailed. +
+ `lambdaDelivery.Duration` + + Millisecondes + + Le temps nécessaire à chaque invocation de fonction Lambda effectuée par Kinesis Data Analytics. +
+ `lambdaDelivery.OkRecords` + + Compter + + Le nombre d'enregistrements renvoyés par une fonction Lambda qui ont été marqués avec le statut Ok. +
+ `millisBehindLatest` + + Millisecondes + + Indique à quel point une application est en retard par rapport à l'heure actuelle en ce qui concerne la lecture de la source de streaming. +
+ `records` + + Compter + + Le nombre d'enregistrements lus (par flux d'entrée) ou écrits (par flux de sortie). +
+ `success` + + Compter + + 1 pour chaque tentative de livraison réussie à la destination configurée pour votre application ; 0 pour chaque tentative de livraison échouée. La valeur moyenne de cette métrique indique le nombre d'accouchements réussis. +
+ `bytesRequestedPerFetch` + + Octets + + Les octets demandés dans un seul appel à getRecords. +
+ `committedOffsets` + + Autre + + Les derniers décalages validés avec succès sur Kafka, pour chaque partition. La métrique d'une partition particulière peut être spécifiée par le nom du sujet et l'ID de partition. +
+ `currentOffsets` + + Autre + + Le décalage de lecture actuel du consommateur, pour chaque partition. La métrique d'une partition particulière peut être spécifiée par le nom du sujet et l'ID de partition. +
+ +### Application d'analyse de données KinesisDonnées Kpu + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `KPUs` + + Compter + + Le nombre d'unités de traitement Kinesis (KPU) actuellement utilisées. + + **Known issue**:comme cette métrique a un décalage plus long que les autres, dans certains cas, elle n'est pas affichée +
+ +### Données de tâches de Kinesis Data Analytics + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `commitsFailed` + + Compter + + Nombre total d'échecs de validation de décalage sur Kafka, si la validation de décalage et le point de contrôle sont activés. +
+ `commitsSucceeded` + + Compter + + Le nombre total de validations de décalage réussies sur Kafka, si la validation de décalage et les points de contrôle sont activés. +
+ `currentInputWatermark` + + Millisecondes + + Le dernier filigrane que cette tâche a reçu. +
+ `currentOutputWatermark` + + Millisecondes + + Le filigrane actuellement en sortie. +
+ `numLateRecordsDropped` + + Compter + + Le nombre d'enregistrements que cette tâche a supprimés en raison d'une arrivée tardive. +
+ `numRecordsIn` + + Compter + + Le nombre total d’enregistrements que cette tâche a reçus. +
+ `numRecordsInPerSecond` + + Compter par seconde + + Le nombre total d'enregistrements que cette tâche a reçus par seconde. +
+ `numRecordsOut` + + Compter + + Le nombre total d'enregistrements que cette tâche doit émettre. +
+ `numRecordsOutPerSecond` + + Compter par seconde + + Le nombre total d'enregistrements que cette tâche doit émettre par seconde. +
+ `recordsLagMax` + + Compter + + Le décalage maximal en termes de nombre d'enregistrements pour n'importe quelle partition dans cette fenêtre. +
+ +### Données de l'opérateur de tâches Kinesis Data Analytics + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `bytesConsumedRate` + + Octets par seconde + + Le nombre moyen d'octets consommés par seconde pour un sujet. +
+ `commitsFailed` + + Compter + + Nombre total d'échecs de validation de décalage sur Kafka, si la validation de décalage et le point de contrôle sont activés. +
+ `commitsSucceeded` + + Compter + + Le nombre total de validations de décalage réussies sur Kafka, si la validation de décalage et les points de contrôle sont activés. +
+ `currentInputWatermark` + + Millisecondes + + Le dernier filigrane que cette tâche a reçu. +
+ `currentOutputWatermark` + + Millisecondes + + Le dernier filigrane que cette application/opérateur/tâche/thread a émistre. +
+ `numLateRecordsDropped` + + Compter + + Le nombre d'enregistrements que cet opérateur ou cette tâche a abandonnés en raison d'une arrivée tardive. +
+ `numRecordsIn` + + Compter + + Le nombre total d’enregistrements que cette tâche a reçus. +
+ `numRecordsInPerSecond` + + Compter par seconde + + Le nombre total d'enregistrements que cette tâche a reçus par seconde. +
+ `numRecordsOut` + + Compter + + Le nombre total d'enregistrements que cette tâche doit émettre. +
+ `numRecordsOutPerSecond` + + Compter par seconde + + Le nombre total d'enregistrements que cette tâche doit émettre par seconde. +
+ `recordsLagMax` + + Compter + + Le décalage maximal en termes de nombre d'enregistrements pour n'importe quelle partition dans cette fenêtre. +
+ +### Tâche d'analyse des données KinesisParallélisme des données + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `currentInputWatermark` + + Millisecondes + + Le dernier filigrane que cette application/opérateur/tâche/thread a reçu. +
+ `numLateRecordsDropped` + + Compter + + Le nombre d'enregistrements que cette tâche a supprimés en raison d'une arrivée tardive. +
+ `numRecordsIn` + + Compter + + Le nombre total d’enregistrements que cette tâche a reçus. +
+ `numRecordsInPerSecond` + + Compter par seconde + + Le nombre total d'enregistrements que cette tâche a reçus par seconde. +
+ `numRecordsOut` + + Compter + + Le nombre total d'enregistrements que cette tâche doit émettre. +
+ `numRecordsOutPerSecond` + + Compter par seconde + + Le nombre total d'enregistrements que cette tâche doit émettre par seconde. +
+ +### Kinesis Data Analytics TaskOperatorParallélisme des données + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `bytesConsumedRate` + + Octets par seconde + + Le nombre moyen d'octets consommés par seconde pour un sujet. +
+ `commitsFailed` + + Compter + + Nombre total d'échecs de validation de décalage sur Kafka, si la validation de décalage et le point de contrôle sont activés. +
+ `commitsSucceeded` + + Compter + + Le nombre total de validations de décalage réussies sur Kafka, si la validation de décalage et les points de contrôle sont activés. +
+ `currentInputWatermark` + + Millisecondes + + Le dernier filigrane que cette application/opérateur/tâche/thread a reçu. +
+ `currentOutputWatermark` + + Millisecondes + + Le dernier filigrane que cette application/opérateur/tâche/thread a émistre. +
+ `numRecordsIn` + + Compter + + Le nombre total d’enregistrements que cet opérateur ou cette tâche a reçus. +
+ `numRecordsInPerSecond` + + Compter par seconde + + Le nombre total d'enregistrements que cet opérateur ou cette tâche a reçus par seconde. +
+ `numRecordsOut` + + Compter + + Le nombre total d'enregistrements que cet opérateur ou cette tâche a émis. +
+ `numRecordsOutPerSecond` + + Compter par seconde + + Le nombre total d'enregistrements que cet opérateur ou cette tâche doit émettre par seconde. +
+ `recordsLagMax` + + Compter + + Le décalage maximal en termes de nombre d'enregistrements pour n'importe quelle partition dans cette fenêtre. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-kinesis-data-firehose-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-kinesis-data-firehose-monitoring-integration.mdx new file mode 100644 index 00000000000..ecceffa4563 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-kinesis-data-firehose-monitoring-integration.mdx @@ -0,0 +1,213 @@ +--- +title: Intégration monitoring Amazon Kinesis Data Firehose +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Kinesis Data Firehose integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration pour la collecte de vos données Amazon Kinesis Data Firehose. Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +## Caractéristiques [#features] + +[Amazon Kinesis Data Firehose](https://aws.amazon.com/kinesis/firehose/) fournit un moyen simple de capturer et de charger des données de streaming. Il peut capturer, transformer et charger des données de streaming dans Amazon Kinesis Data Analytics, Amazon S3, Amazon Redshift et Amazon Elasticsearch Service, permettant des analyses en temps quasi réel. + +L'intégration Kinesis Data Firehose de New Relic signale des données telles que les enregistrements et les octets indexés, le nombre de données copiées sur les services AWS, l'âge et la fraîcheur des enregistrements et d'autres [données métriques](#metrics). + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +[Interrogation par défaut](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) pour l'intégration Amazon Kinesis Data Firehose : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration Kinesis Data Firehose. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `QueueSample`, avec une valeur `provider` de `KinesisDeliveryStream`. + +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les métriques suivantes : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `deliveryToElasticsearchBytes` + + Le nombre d'octets indexés sur Amazon ES sur la période spécifiée. +
+ `deliveryToElasticsearchRecords` + + Le nombre d'enregistrements indexés sur Amazon ES sur la période spécifiée. +
+ `deliveryToElasticsearchSuccess` + + La somme des enregistrements indexés avec succès sur la somme des enregistrements qui ont été tentés. +
+ `deliveryToRedshiftBytes` + + Le nombre d'octets copiés sur Amazon Redshift sur la période spécifiée. +
+ `deliveryToRedshiftRecords` + + Le nombre d'enregistrements copiés sur Amazon Redshift sur la période spécifiée. +
+ `deliveryToRedshiftSuccess` + + La somme des commandes Amazon Redshift COPY réussies sur la somme de toutes les commandes Amazon Redshift COPY. +
+ `deliveryToS3Bytes` + + Le nombre d'octets livrés à Amazon S3 sur la période spécifiée. +
+ `deliveryToS3DataFreshness` + + L'âge (depuis l'entrée dans Kinesis Firehose jusqu'à maintenant) en secondes du plus ancien enregistrement dans Kinesis Firehose. Tout enregistrement plus ancien que cet âge a été placé dans le bucket S3. +
+ `deliveryToS3Records` + + Le nombre d'enregistrements livrés à Amazon S3 sur la période spécifiée. +
+ `deliveryToS3Success` + + La somme des commandes put Amazon S3 réussies sur la somme de toutes les commandes put Amazon S3. +
+ `incomingBytes` + + Le nombre d'octets ingérés dans le flux Kinesis Firehose sur la période spécifiée. +
+ `incomingRecords` + + Nombre d'enregistrements ingérés dans le flux Kinesis Firehose sur la période spécifiée. +
+ `putRecordBatchLatency` + + Le temps pris en millisecondes par opération `PutRecordBatch` , mesuré sur la période de temps spécifiée. +
+ `putRecordBytes` + + Nombre d'octets placés dans le flux de diffusion Kinesis Firehose à l'aide de `PutRecord` sur la période spécifiée. +
+ `putRecordLatency` + + Le temps pris en millisecondes par opération `PutRecord` , mesuré sur la période de temps spécifiée. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-kinesis-data-streams-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-kinesis-data-streams-monitoring-integration.mdx new file mode 100644 index 00000000000..04e478a5de4 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-kinesis-data-streams-monitoring-integration.mdx @@ -0,0 +1,232 @@ +--- +title: Intégration monitoring des flux de données Amazon Kinesis +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s integration with AWS Kinesis Data Streams: How to activate it and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration pour le monitoring des flux de données Amazon Kinesis. Ce document explique comment activer l'intégration et décrit les données qui peuvent être signalées. + +## Caractéristiques [#features] + +[Amazon Kinesis Data Streams](http://docs.aws.amazon.com/streams/latest/dev/introduction.html) est une plateforme de données de streaming sur AWS, facilitant le chargement et l'analyse des données en temps réel. Il vous donne également la possibilité de créer des applications de streaming de données personnalisées pour des besoins spécialisés. + +L'intégration de Kinesis Data Streams de New Relic collecte des données métriques et configuration sur tous les flux associés à votre compte. + +Les données collectées incluent les octets placés et récupérés dans le flux, les enregistrements placés et récupérés, le temps pris par les opérations et d'autres [mesures](#metrics). Vous pouvez afficher vos données Kinesis Data Streams dans un dashboard prédéfini et créer des requêtes et des graphiques personnalisés dans New Relic. + +Vous disposez également d'une option [permettant d'activer la collecte de données de fragments](#polling). Les enregistrements de données AWS sont traités séquentiellement dans des fragments, qui sont à leur tour regroupés en flux. Le nombre de fragments dans un flux détermine la capacité totale de lecture et d'écriture des données du service. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## Sondage et configuration [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration d'Amazon Kinesis Data Streams : + +* Intervalle d'interrogation de New Relic : 15 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +Données de fragment : pour collecter des données de fragment, activez **Collect shards data** dans les options configuration de l'intégration dans l'UI. + + + Si vous activez la collecte de données de fragments, cela augmentera le nombre d'appels d'API à votre service AWS CloudWatch . Il y aura sept appels par fragment par intervalle d'interrogation. + + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration Kinesis Data Streams. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `QueueSample` . La valeur `provider` inclut : + +* Métriques du flux : `KinesisStream` +* Métriques des éclats : `KinesisStreamShard` + +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les métriques suivantes. Pour plus d'informations, consultez la documentation d'Amazon sur [le monitoring des flux de données Amazon Kinesis](http://docs.aws.amazon.com/streams/latest/dev/monitoring-with-cloudwatch.html). + +Cette intégration collecte les métriques suivantes : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `getRecordsBytes` + + Le nombre d'octets récupérés à partir du flux Kinesis, mesuré sur la période spécifiée. Les statistiques minimales, maximales et moyennes représentent les octets d'une seule opération `GetRecords` pour le flux au cours de la période spécifiée. +
+ `getRecordsIteratorAgeMilliseconds` + + L'âge du dernier enregistrement dans tous `GetRecords` appels effectués sur un flux Kinesis, mesuré sur la période spécifiée, en millisecondes. L'âge est la différence entre l'heure actuelle et le moment où le dernier enregistrement de l'appel `GetRecords` a été écrit dans le flux. Les statistiques Minimum et Maximum peuvent être utilisées pour suivre la progression des applications consommateur Kinesis. Une valeur de zéro indique que les enregistrements en cours de lecture sont complètement rattrapés par le flux. +
+ `getRecordsLatency` + + Le temps pris en millisecondes par opération `GetRecords` , mesuré sur la période de temps spécifiée. +
+ `getRecordsRecords` + + Le nombre d'enregistrements récupérés à partir du fragment, mesuré sur la période spécifiée. Les statistiques minimales, maximales et moyennes représentent les enregistrements d'une seule opération `GetRecords` pour le flux au cours de la période spécifiée. +
+ `incomingBytes` + + Le nombre d'octets correctement placés dans le flux Kinesis au cours de la période spécifiée. Cette métrique inclut les octets des opérations `PutRecord` et `PutRecords` . Les statistiques minimales, maximales et moyennes représentent les octets d'une seule opération d'insertion pour le flux au cours de la période spécifiée. +
+ `incomingRecords` + + Le nombre d'enregistrements placés avec succès dans le flux Kinesis au cours de la période spécifiée. Cette métrique inclut le nombre d'enregistrements des opérations `PutRecord` et `PutRecords` . Les statistiques minimales, maximales et moyennes représentent les enregistrements d'une seule opération d'insertion pour le flux au cours de la période spécifiée. +
+ `putRecordBytes` + + Le nombre d'octets placés dans le flux Kinesis à l'aide de l'opération `PutRecord` sur la période spécifiée. +
+ `putRecordLatency` + + Le temps pris en millisecondes par opération `PutRecord` , mesuré sur la période de temps spécifiée. +
+ `putRecordSuccess` + + Le nombre d'opérations `PutRecord` réussies par flux Kinesis, mesuré sur la période spécifiée. La moyenne reflète le pourcentage d’écritures réussies dans un flux. +
+ `putRecordsBytes` + + Le nombre d'octets placés dans le flux Kinesis à l'aide de l'opération `PutRecords` sur la période spécifiée. +
+ `putRecordsLatency` + + Le temps pris en millisecondes par opération `PutRecords` , mesuré sur la période de temps spécifiée. +
+ `putRecordsRecords` + + Nombre d'enregistrements réussis dans une opération `PutRecords` par flux Kinesis, mesuré sur la période spécifiée. +
+ `putRecordsSuccess` + + Le nombre d'opérations `PutRecords` où au moins un enregistrement a réussi, par flux Kinesis, mesuré sur la période spécifiée. +
+ `readProvisionedThroughputExceeded` + + Le nombre d'appels GetRecords limités pour le flux sur la période spécifiée. La statistique la plus couramment utilisée pour cette métrique est la moyenne. +
+ `writeProvisionedThroughputExceeded` + + Le nombre d'enregistrements rejetés en raison de la limitation du flux sur la période spécifiée. Cette métrique inclut la limitation des opérations `PutRecord` et `PutRecords` . La statistique la plus couramment utilisée pour cette métrique est la moyenne. + + Lorsque la statistique minimale a une valeur différente de zéro, les enregistrements étaient limités pour le flux pendant la période spécifiée. + + Lorsque la statistique maximale a une valeur de 0 (zéro), aucun enregistrement n'a été limité pour le flux pendant la période spécifiée. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-lambda-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-lambda-monitoring-integration.mdx new file mode 100644 index 00000000000..f08dcad4c63 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-lambda-monitoring-integration.mdx @@ -0,0 +1,234 @@ +--- +title: AWS Lambda monitoring Intégration +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Lambda monitoring integration: How to activate it and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/integrations/new-relic-integrations/getting-started/introduction-infrastructure-integrations) inclut une intégration permettant de signaler vos données AWS Lambda à New Relic. Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +Nous proposons également une Lambda monitoring fonctionnalité plus approfondie. Pour plus d'informations, consultez [monitoring sans serveur New Relic pour AWS Lambda](/docs/serverless-function-monitoring/aws-lambda-monitoring/get-started/introduction-new-relic-monitoring-aws-lambda). + +## Caractéristiques [#features] + +[AWS Lambda](https://aws.amazon.com/lambda/) est une plateforme de calcul sans administration pour les développeurs Web backend . Il exécute votre code pour vous dans le cloud AWS et vous fournit une structure tarifaire précise. + +Les fonctions Lambda sont des morceaux de code personnalisé qui s'exécutent lorsqu'un certain événement se produit. Afin d'identifier l'événement qui invoque une fonction Lambda particulière, AWS Lambda utilisateur définit la modélisation source de l'événement. En option, des alias peuvent être utilisés pour pointer vers une version spécifique d'une fonction Lambda. + +L'intégration AWS Lambda de New Relic génère des données telles que le nombre d'appels, le nombre d'erreurs, les temporisateurs de fonction et d'autres [mesures](#metrics). Vous pouvez afficher vos données Lambda dans un dashboard prédéfini et également [créer des requêtes et des graphiques personnalisés](/docs/infrastructure/integrations-getting-started/getting-started/use-integration-data-new-relic-insights). + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + + + Si vous utilisez des clés personnalisées pour chiffrer les variables d’environnement, vous pouvez commencer à voir des erreurs de déchiffrement KMS dans la console Cloudtrail. Cela est dû au fait que l’API utilisée pour récupérer les lambdas essaie toujours de récupérer les informations des variables d’environnement dans le cadre de sa réponse. New Relic ne reçoit ni ne stocke ces informations. + + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration AWS Lambda : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration Lambda. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `ServerlessSample` , avec les valeurs `provider` de `LambdaRegion` , `LambdaFunction` et `LambdaFunctionAlias`. + +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les métriques suivantes. Pour en savoir plus sur ces métriques, consultez [la documentation Lambda d'Amazon](http://docs.aws.amazon.com/lambda/latest/dg/monitoring-functions-metrics.html). + +### Fonction et alias + +La fonction Lambda et les données d'alias sont attachées au [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `ServerlessSample` , avec une valeur `provider` de `LambdaFunction` et `LambdaFunctionAlias`, respectivement. + +De plus, si vous utilisez [AWS CloudFront](/docs/integrations/amazon-integrations/aws-integrations-list/aws-cloudfront-monitoring-integration) pour exécuter les fonctions dans des emplacements AWS plus proches des clients et que vous avez activé le filtre pour collecter les métriques Lambda\@Edge, ces données seront attachées au type d'événement `ServerlessSample` , avec une valeur de fournisseur de `LambdaEdgeFunction`. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `concurrentExecutions` + + Disponible uniquement pour les fonctions pour lesquelles une limite de simultanéité personnalisée est spécifiée. Non applicable aux versions ou aux alias. Mesure la somme des exécutions simultanées pour une fonction donnée à un moment donné. Doit être considéré comme une mesure moyenne si elle est agrégée sur une période donnée. +
+ `deadLetterErrors` + + Mesure le nombre de fois qu'une fonction ne parvient pas à écrire la charge utile de l'événement ayant échoué dans vos files d'attente de lettres mortes configurées. Cela peut être dû à l'une des raisons suivantes : + + * Erreurs d'autorisations + * Limites de débit des services en aval + * Ressources mal configurées + * Délais d'attente +
+ `duration` + + Mesure le temps écoulé en millisecondes à partir du moment où le code de fonction commence à s'exécuter à la suite d'une invocation jusqu'au moment où il cesse de s'exécuter. (Cette métrique remplace la métrique de latence obsolète.) La valeur maximale possible du point de données correspond à la configuration du délai d'expiration de la fonction. La durée facturée sera arrondie aux 100 millisecondes les plus proches. Notez qu'AWS Lambda n'envoie ces métriques à CloudWatch que si elles ont une valeur différente de zéro. +
+ `edge-region` + + La région AWS où la fonction est exécutée. Uniquement pour les fonctions exécutées par le service Lambda\@Edge. +
+ `errors` + + Mesure le nombre d'appels qui ont échoué en raison d'erreurs dans la fonction (code de réponse 4XX). Ceci remplace la métrique obsolète ErrorCount. Les appels ayant échoué peuvent déclencher une nouvelle tentative qui réussit. Cela comprend : + + * Exceptions traitées (par exemple, context.fail(error)) + + * Exceptions non gérées provoquant la sortie du code + + * Exceptions de manque de mémoire + + * Délais d'attente + + * Erreurs d'autorisations + + Cela n'inclut pas les appels qui échouent en raison de taux d'appel dépassant les limites simultanées par défaut (code d'erreur 429) ou les échecs dus à des erreurs de service internes (code d'erreur 500). +
+ `invocations` + + Mesure le nombre de fois qu'une fonction est invoquée en réponse à un événement ou à un appel d'API. Ceci remplace la métrique obsolète RequestCount. Cela inclut les appels réussis et échoués, mais n'inclut pas les tentatives limitées. Cela équivaut aux requests facturées pour la fonction. Notez qu'AWS Lambda n'envoie ces métriques à CloudWatch que si elles ont une valeur différente de zéro. +
+ `iteratorAge` + + Disponible uniquement pour les appels basés sur des flux (fonctions déclenchées par un flux Amazon DynamoDB ou Kinesis). Mesure l'âge du dernier enregistrement en millisecondes pour chaque lot d'enregistrements traités. L'âge est la différence entre le moment où Lambda a reçu le lot et le moment où le dernier enregistrement du lot a été écrit dans le flux. +
+ `streamedOutboundBytes` (Mode de diffusion en continu des réponses uniquement) + + Le nombre d'octets diffusés en sortie de la fonction Lambda (le mode de diffusion de la réponse doit concevoir la fonction). +
+ `streamedOutboundThroughput` (Mode de diffusion en continu des réponses uniquement) + + Le débit de la fonction Lambda en octets par seconde. +
+ `throttles` + + Mesure le nombre de tentatives d'appel de fonction Lambda qui ont été limitées en raison de taux d'appel dépassant les limites simultanées des clients (code d'erreur 429). Les appels ayant échoué peuvent déclencher une nouvelle tentative qui réussit. +
+ +### Région + +Les données de la région Lambda sont attachées au [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `ServerlessSample` , avec une valeur `provider` de `LambdaRegion`. + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `concurrentExecutions` + + écrite comme métrique agrégée pour toutes les fonctions du compte. Mesure la somme des exécutions simultanées pour une fonction donnée à un moment donné. Doit être considéré comme une mesure moyenne si elle est agrégée sur une période donnée. +
+ `unreservedConcurrentExecutions` + + rédigée comme métrique agrégée pour toutes les fonctions du compte uniquement. Représente la somme de la simultanéité des fonctions qui n'ont pas de limite de simultanéité personnalisée spécifiée. Doit être considéré comme une mesure moyenne si elle est agrégée sur une période donnée. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-lambda-telemetry.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-lambda-telemetry.mdx new file mode 100644 index 00000000000..66232a66757 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-lambda-telemetry.mdx @@ -0,0 +1,83 @@ +--- +title: Intégration de l'API de télémétrie AWS Lambda Extensions +tags: + - Integrations + - Amazon integrations + - Lambda Extension +freshnessValidatedDate: never +translationType: machine +--- + + + **Work in progress** + + +L'extension de télémétrie New Relic AWS Lambda permet à l'utilisateur d'envoyer des données télémétriques directement depuis sa fonction Lambda vers New Relic, sans avoir besoin de configurer des déclencheurs ou de se connecter à Amazon CloudWatch. Envoyez votre événement de log, métriques et trace en ajoutant l'extension comme couche, et obtenez des informations détaillées de vos données instantanément sur la plateforme New Relic. + +## installation + +1. Dans la AWS Console accédez à **Lambda > Functions** et choisissez la fonction à partir de laquelle vous souhaitez ingérer des données. + +2. Sélectionnez **Layers > Add Layer**. + +3. Dans **Choose a layer** sélectionnez l’option **Specify a layer by providing the ARN** . + +4. Allez sur [https://layers.newrelic-external.com/](https://layers.newrelic-external.com/), recherchez AwsLambdaExtension dans votre région pour trouver le `ARN` avec la version de couche la plus récente, puis collez-le dans le champ `ARN` de votre console AWS. Si vous ne trouvez pas l'extension AwsLambda, utilisez le modèle suivant pour obtenir `arn`: + + `arn:aws:lambda:{your-region}:533243300146:layer:AwsLambdaExtension:{version}` + +Pour obtenir la version la plus récente de l’extension, sélectionnez Version 1 et cliquez sur **Save**. Cliquez ensuite sur **Edit** et sélectionnez la version la plus élevée disponible. 5. Allez à **Configuration**, sélectionnez **Environment variables** et ajoutez `Key: NEW_RELIC_LICENSE_KEY Value: YOUR_LICENSE_KEY`. Remarque : `Key: NEW_RELIC_ACCOUNT_ID` est un paramètre facultatif et doit être défini sur votre ID de compte New Relic. + +Pour vérifier que la configuration a été effectuée correctement, cliquez sur le bouton **Test** dans la section **code** . + +## Trouvez vos données + +Vous pouvez retrouver vos données sur New Relic en naviguant vers **[https://one.newrelic.com/](https://one.newrelic.com/)** et l'une de ces catégories dans le menu de gauche : **Logs** ou **Metrics & events**, ou **...Add More > Traces**. + +### enregistrer: + +Le log peut être filtré par un ensemble d'attributs spécifique. Cliquez sur **Attributes** dans le menu de gauche, puis choisissez l’attribut qui vous intéresse. Par exemple: + +``` +NEWRELIC > SOURCE > api.logs +AWS > EXTENSION.NAME > AwsLambdaExtension +PLUGIN > TYPE > lambda extension +``` + +### Métriques: + +Les métriques envoyées par l'extension sont préfixées par `aws.telemetry.lambda_ext.`. Il existe actuellement 6 métriques AWS lambda : + +``` +'durationMs' +'billedDurationMs' +'initDurationMs' +'memorySizeMB' +'maxMemoryUsedMB' +'producedBytes' +``` + +### Événements + +Pour voir l'événement envoyé par cette extension, dans la section **Custom events** , recherchez `AwsLambdaExtension`. Il existe actuellement douze types d’événements : + +``` +platform_initStart +platform_initRuntimeDone +platform_initReport +platform_start +platform_runtimeDone +platform_fault +platform_report +platform_extension +platform_telemetrySubscription +platform_logsDropped +function +extension +``` + +Vous pouvez filtrer davantage les données sous le menu `Dimensions` . + +### Traces + +Les données de trace sont affichées dans l’onglet **Traces** . Pour voir la trace envoyée par l'extension, recherchez « AwsLambdaExtension ». \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-lex-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-lex-monitoring-integration.mdx new file mode 100644 index 00000000000..692414a745b --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-lex-monitoring-integration.mdx @@ -0,0 +1,144 @@ +--- +title: Intégration monitoring Amazon Lex +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Lex monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration Amazon Lex pour signaler vos données Lex à New Relic. Nous expliquons ici comment activer notre intégration et quelles données peuvent être signalées. + +Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + +## Caractéristiques [#features] + +[Amazon Lex](https://aws.amazon.com/lex/) (Lex) est un service AWS permettant de créer des interfaces conversationnelles dans des applications utilisant la voix et le texte. Avec l'intégration Lex de New Relic, vous pourrez monitorer le nombre de requests, les canaux utilisés pour la conversation du bot et bien plus encore. Vous pourrez créer des graphiques personnalisés de vos données et [créer des conditions d'alerte](/docs/infrastructure/new-relic-infrastructure/infrastructure-alert-conditions/infrastructure-alerts-add-edit-or-view-host-alert-information) en fonction des modifications apportées aux données ou configuration de Lex. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, découvrez comment [connecter les services AWS à New Relic](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream/#set-up-metric-stream). + +## Rechercher et utiliser des données [#find-data] + +Pour trouver les données de cette intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration Amazon Lex. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) à l'aide de la table **Metric** et `namespace='AWS/Lex'`. + +Pour en savoir plus sur la recherche et l'utilisation des données d'intégration, consultez comment [comprendre les données d'intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration de New Relic Infrastructure collecte les données Amazon Lex suivantes : + + + Pour une description complète de chaque métrique, consultez [Lex Dimensions et Métriques d'Amazon](https://docs.aws.amazon.com/lex/latest/dg/monitoring-aws-lex-cloudwatch.html). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Type de données +
+ `RuntimeRequestCount` + + entier/nombre +
+ `RuntimeSuccessfulRequestLatency` + + millisecondes +
+ `RuntimeThrottledEvents` + + entier/nombre +
+ `RuntimeSystemErrors` `RuntimeLambdaErrors` `RuntimePollyErrors` `RuntimeUserErrors` + + entier/nombre +
+ `RuntimeConcurrency` + + entier/nombre +
+ `BotChannelRequestCount` + + entier/nombre +
+ `BotChannelInboundThrottledEvents` `BotChannelOutboundThrottledEvents` + + entier/nombre +
+ `ConversationLogsAudioDeliverySuccess` `ConversationLogsAudioDeliveryFailure` `ConversationLogsTextDeliverySuccess` `ConversationLogsTextDeliveryFailure` + + entier/nombre +
+ `BotChannelAuthErrors` `BotChannelConfigurationErrors` `BotChannelResponseCardErrors` `BotChannelSystemErrors` + + entier/nombre +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-mq-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-mq-integration.mdx new file mode 100644 index 00000000000..368bad323e5 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-mq-integration.mdx @@ -0,0 +1,675 @@ +--- +title: Intégration d'Amazon MQ +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS MQ monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + ActiveMQ est le seul moteur MQ pris en charge par cette intégration. Si vous utilisez RabbitMQ, consultez notre [intégration RabbitMQ](/docs/infrastructure/host-integrations/host-integrations-list/rabbitmq-monitoring-integration/) pour savoir comment obtenir des métriques à partir de votre instance. + + +New Relic propose une intégration pour générer des rapports sur vos données [Amazon Web Services MQ](https://aws.amazon.com/amazon-mq) . Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration Amazon MQ : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Afficher et interroger les données [#find-data] + +Pour afficher vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez une intégration. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Courtier + + `AwsMqBrokerSample` + + `AwsMqBroker` +
+ Sujet + + `AwsMqTopicSample` + + `AwsMqTopic` +
+ File d'attente + + `AwsMqQueueSample` + + `AwsMqQueue` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration enregistre les données Amazon MQ pour le courtier, le sujet et l'entité de file d'attente. + +### Données du courtier MQ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `CpuCreditBalance` + + Compter + + Le nombre de crédits CPU gagnés qu'une instance a accumulés depuis son lancement ou son démarrage (y compris le nombre de crédits de lancement). Le solde créditeur est disponible pour que l'instance du courtier puisse dépenser des sommes dépassant l'utilisation du processeur de base de référence. Cette métrique est disponible uniquement pour le type d'instance de courtier mq.t2.micro. Les mesures de crédit CPU ne sont disponibles qu'à des intervalles de cinq minutes. +
+ `CpuUtilization` + + Pour cent + + Le pourcentage d'unité de calcul EC2 allouée que le courtier utilise actuellement. +
+ `CurrentConnectionsCount` + + Compter + + Le nombre actuel de connexions actives sur le courtier actuel. +
+ `EstablishedConnectionsCount` + + Compter + + Le nombre total de connexions, actives et inactives, qui ont été établies sur le courtier. +
+ `InactiveDurableTopicSubscribersCount` + + Compter + + Le nombre d'abonnés inactifs à des sujets durables, jusqu'à un maximum de 2000. +
+ `JournalFilesForFastRecovery` + + Compter + + Le nombre de fichiers journaux qui seront relus après un arrêt propre. +
+ `JournalFilesForFullRecovery` + + Compter + + Le nombre de fichiers journaux qui seront relus après un arrêt incorrect. +
+ `HeapUsage` + + Pour cent + + Le pourcentage de la limite de mémoire JVM ActiveMQ que le courtier utilise actuellement. +
+ `NetworkIn` + + Octets + + Le volume de trafic entrant pour le courtier. +
+ `NetworkOut` + + Octets + + Le volume de trafic sortant pour le courtier. +
+ `OpenTransactionsCount` + + Compter + + Le nombre total de transactions en cours. +
+ `StorePercentUsage` + + Pour cent + + Le pourcentage utilisé par la limite de stockage. Si ce nombre atteint 100, le courtier refusera les messages. +
+ `TotalConsumerCount` + + Compter + + Le nombre de messages consommateurs abonnés à des destinations sur le courtier actuel. +
+ `TotalMessageCount` + + Compter + + Le nombre de messages stockés sur le courtier. +
+ `TotalProducerCount` + + Compter + + Le nombre de producteurs de messages actifs sur les destinations du courtier actuel. +
+ +### Données du sujet MQ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `ConsumerCount` + + Compter + + Le nombre de consommateur abonnés à la destination. +
+ `EnqueueCount` + + Compter + + Le nombre de messages envoyés à la destination, par minute. +
+ `EnqueueTime` + + Millisecondes + + La latence de bout en bout entre le moment où un message arrive chez un courtier et celui où il est livré à un consommateur. +
+ `ExpiredCount` + + Compter + + Le nombre de messages qui n'ont pas pu être livrés car ils ont expiré, par minute. +
+ `DispatchCount` + + Compter + + Le nombre de messages envoyés au consommateur, par minute. +
+ `DequeueCount` + + Compter + + Le nombre de messages reconnus par le consommateur, par minute. +
+ `ReceiveCount` + + Compter + + Le nombre de messages reçus du courtier distant pour un connecteur réseau duplex. +
+ `InFlightCount` + + Compter + + Le nombre de messages envoyés au consommateur qui n'ont pas été reconnus. +
+ `MemoryUsage` + + Pour cent + + Le pourcentage de la limite de mémoire que la destination utilise actuellement. +
+ `ProducerCount` + + Compter + + Le nombre de producteurs pour la destination. +
+ +### Données de la file d'attente MQ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `ConsumerCount` + + Compter + + Le nombre de consommateur abonnés à la destination. +
+ `EnqueueCount` + + Compter + + Le nombre de messages envoyés à la destination, par minute. +
+ `EnqueueTime` + + Millisecondes + + La latence de bout en bout entre le moment où un message arrive chez un courtier et celui où il est livré à un consommateur. +
+ `ExpiredCount` + + Compter + + Le nombre de messages qui n'ont pas pu être livrés car ils ont expiré, par minute. +
+ `DispatchCount` + + Compter + + Le nombre de messages envoyés au consommateur, par minute. +
+ `DequeueCount` + + Compter + + Le nombre de messages reconnus par le consommateur, par minute. +
+ `ReceiveCount` + + Compter + + Le nombre de messages reçus du courtier distant pour un connecteur réseau duplex. +
+ `InFlightCount` + + Compter + + Le nombre de messages envoyés au consommateur qui n'ont pas été reconnus. +
+ `MemoryUsage` + + Pour cent + + Le pourcentage de la limite de mémoire que la destination utilise actuellement. +
+ `ProducerCount` + + Compter + + Le nombre de producteurs pour la destination. +
+ `QueueSize` + + Compter + + Le nombre de messages dans la file d'attente. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-nat-gateway-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-nat-gateway-monitoring-integration.mdx new file mode 100644 index 00000000000..45109d8e59d --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-nat-gateway-monitoring-integration.mdx @@ -0,0 +1,256 @@ +--- +title: Intégration de la passerelle Amazon VPC NAT monitoring +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'The New Relic Amazon NAT Gateway integration: Use AWS CloudWatch Metric Streams to monitor your NAT Gateway performance.' +freshnessValidatedDate: never +translationType: machine +--- + +Notre intégration NAT Gateway signale les données de votre service NAT Gateway à votre compte New Relic à l'aide d'AWS CloudWatch Metric Streams. + +## Caractéristiques [#features] + +Avec cette intégration, vous pouvez voir vos données télémétriques [NAT Gateway](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html) dans New Relic. Vous pouvez monitorer vos services, interroger les données entrantes et créer un dashboard pour tout observer en un coup d'œil. + +## Activer AWS CloudWatch Metric Streams [#activate] + +Pour activer AWS CloudWatch Metric Streams, suivez [les instructions de connexion d'AWS CloudWatch Metric Streams à New Relic](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream/). + + + Si vous avez déjà activé AWS CloudWatch Metric Streams, vous devriez déjà voir les métriques dans New Relic ! Aucune modification n'est nécessaire. + + +## Rechercher et utiliser des données [#find-use-data] + +Les données de cette intégration sont attachées à [notre type de données `Metric` ](/docs/data-apis/understand-data/new-relic-data-types/#dimensional-metrics). + +Une façon de trouver vos données : accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Metrics and events** et filtrez par `aws.natgateway`. + +## données métriques [#metrics] + +Détails sur les métriques rapportées : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique (min, max, moyenne, compte, somme) + + Unité + + Description +
+ `ActiveConnectionCount` + + compter + + Le nombre total de connexions TCP actives simultanées via la passerelle NAT. +
+ `BytesInFromDestination` + + octets + + Le nombre d'octets reçus par la passerelle NAT depuis la destination. +
+ `BytesInFromSource` + + octets + + Le nombre d’octets reçus par la passerelle NAT provenant des clients de votre VPC. +
+ `BytesOutToDestination` + + octets + + Le nombre d'octets envoyés via la passerelle NAT vers la destination. +
+ `BytesOutToSource` + + octets + + Le nombre d’octets envoyés via la passerelle NAT aux clients de votre VPC. +
+ `ConnectionAttemptCount` + + compter + + Le nombre de tentatives de connexion effectuées via la passerelle NAT. +
+ `ConnectionEstablishedCount` + + compter + + Le nombre de connexions établies via la passerelle NAT. +
+ `ErrorPortAllocation` + + compter + + Nombre de fois où la passerelle NAT n'a pas pu allouer un port source. +
+ `IdleTimeoutCount` + + compter + + Le nombre de connexions qui sont passées de l’état actif à l’état inactif. Une connexion active passe à l'état inactif si elle n'a pas été fermée correctement et qu'aucune activité n'a eu lieu au cours des 350 dernières secondes. +
+ `PacketsDropCount` + + compter + + Le nombre de paquets abandonnés par la passerelle NAT. +
+ `PacketsInFromDestination` + + compter + + Le nombre de paquets reçus par la passerelle NAT depuis la destination. +
+ `PacketsInFromSource` + + compter + + Le nombre de paquets reçus par la passerelle NAT provenant des clients de votre VPC. +
+ `PacketsOutToDestination` + + compter + + Le nombre de paquets envoyés via la passerelle NAT vers la destination. +
+ `PacketsOutToSource` + + compter + + Le nombre de paquets envoyés via la passerelle NAT aux clients de votre VPC. +
+ +## Conseils pour utiliser vos données [#tips] + +Pour savoir comment créer des graphiques personnalisés de vos données, consultez [notre documentation NRQL](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-new-relics-query-language). Pour obtenir des conseils sur l'interrogation de ce type de données, consultez [requête métrique data](/docs/data-apis/understand-data/metric-data/query-metric-data-type). + +Vous pouvez configurer pour recevoir une notification sur les modifications apportées à vos données. [En savoir plus sur la création d'alertes](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-neptune-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-neptune-monitoring-integration.mdx new file mode 100644 index 00000000000..2c9636237be --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-neptune-monitoring-integration.mdx @@ -0,0 +1,1659 @@ +--- +title: Intégration monitoring Amazon Neptune +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Neptune monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données Amazon Neptune à New Relic. Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration Amazon Neptune : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Afficher et utiliser les données [#find-data] + +Pour [afficher et utiliser vos données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data), accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez une intégration. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ [exemple](#instance) + + `AwsNeptuneInstanceSample` + + `AwsNeptuneInstance` +
+ [Cluster](#cluster) + + `AwsNeptuneClusterSample` + + `AwsNeptuneCluster` +
+ [ClusterParRôle](#clusterByRole) + + `AwsNeptuneClusterByRoleSample` + + `AwsNeptuneClusterByRole` +
+ [Classe de base de données](#database-class) + + `AwsNeptuneDatabaseClassSample` + + `AwsNeptuneDatabaseClass` +
+ +## données métriques [#metrics] + +Cette intégration collecte les données Amazon Neptune par exemple, Cluster, ClusterByRole et DatabaseClass. + +### Données de l'instance Neptune [#instance] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `backupRetentionPeriodStorageUsed` + + Octets + + Quantité totale de stockage de sauvegarde, en octets, utilisée pour prendre en charge la fenêtre de conservation des sauvegardes du cluster Neptune DB. Inclus dans le total rapporté par la métrique TotalBackupStorageBilled. +
+ `clusterReplicaLag` + + Millisecondes + + Pour une réplique en lecture, la quantité de décalage lors de la réplication des mises à jour à partir de l'instance principale, en millisecondes. +
+ `clusterReplicaLagMaximum` + + Millisecondes + + La quantité maximale de décalage entre l'instance principale et chaque instance de base de données Neptune dans le cluster de base de données, en millisecondes. +
+ `clusterReplicaLagMinimum` + + Millisecondes + + La quantité minimale de décalage entre l'instance principale et chaque instance de base de données Neptune dans le cluster de base de données, en millisecondes. +
+ `cpuUtilization` + + Pour cent + + Le pourcentage d'utilisation du processeur. +
+ `engineUptime` + + Secondes + + La durée d'exécution de l'instance, en secondes. +
+ `freeableMemory` + + Octets + + La quantité de mémoire vive disponible, en octets. +
+ `gremlinRequestsPerSec` + + Compter + + Nombre de requests par seconde adressées au moteur Gremlin. +
+ `gremlinWebSocketOpenConnections` + + Compter + + Le nombre de connexions WebSocket ouvertes à Neptune. +
+ `loaderRequestsPerSec` + + Compter + + Nombre de requests de chargeur par seconde. +
+ `mainRequestQueuePendingRequests` + + Compter + + Le nombre de requests en attente dans la file d'attente d'entrée en attente d'exécution. Neptune commence à limiter requests lorsqu'elles dépassent la capacité maximale de la file d'attente. +
+ `networkReceiveThroughput` + + Octets par seconde + + Le trafic réseau entrant (réception) sur l'instance de base de données, y compris le trafic de base de données des clients et le trafic Neptune utilisé pour monitoring et la réplication, en octets/seconde. +
+ `networkThroughput` + + Octets par seconde + + La quantité de débit réseau reçue et transmise aux clients par chaque instance du cluster Neptune DB, en octets par seconde. Ce débit n'inclut pas le trafic réseau entre l'instance du cluster DB et le volume cluster . +
+ `networkTransmitThroughput` + + Octets par seconde + + Le trafic réseau sortant (transmission) sur l'instance de base de données, y compris le trafic de base de données des clients et le trafic Neptune utilisé pour monitoring et la réplication, en octets/seconde. +
+ `numTxCommitted` + + Compter + + Le nombre de transactions effectuées avec succès par seconde. +
+ `numTxOpened` + + Compter + + Le nombre de transactions ouvertes sur le serveur par seconde. +
+ `numTxRolledBack` + + Compter + + Le nombre de transactions par seconde annulées sur le serveur en raison d'erreurs. +
+ `snapshotStorageUsed` + + Octets + + Quantité totale de stockage de sauvegarde consommée par tous les snapshots d'un cluster Neptune DB en dehors de sa fenêtre de conservation de sauvegarde, en octets. Inclus dans le total rapporté par la métrique TotalBackupStorageBilled. +
+ `sparqlRequestsPerSec` + + Compter + + Le nombre de requests par seconde adressées au moteur SPARQL. +
+ `totalBackupStorageBilled` + + Octets + + La quantité totale de stockage de sauvegarde pour laquelle vous êtes facturé pour un cluster Neptune DB donné, en octets. Inclut le stockage de sauvegarde mesuré par les métriques BackupRetentionPeriodStorageUsed et SnapshotStorageUsed. +
+ `totalRequestsPerSec` + + Compter + + Le nombre total de requests par seconde adressées au serveur à partir de toutes les sources. +
+ `totalClientErrorsPerSec` + + Compter + + Le nombre total par seconde de requests ayant échoué en raison de problèmes côté client. +
+ `totalServerErrorsPerSec` + + Compter + + Le nombre total par seconde de requests ayant échoué sur le serveur en raison de défaillances internes. +
+ `volumeBytesUsed` + + Octets + + La quantité de stockage utilisée par votre instance Neptune DB, en octets. Cette valeur affecte le coût du cluster Neptune DB. +
+ `volumeReadIOPs` + + Compter + + Nombre moyen d'opérations d'I/O de lecture facturées à partir d'un volume cluster , signalé à des intervalles de 5 minutes. Les opérations de lecture facturées sont calculées au niveau du volume cluster , agrégées à partir de toutes les instances du cluster Neptune DB, puis signalées à des intervalles de 5 minutes. +
+ `volumeWriteIOPs` + + Compter + + Nombre moyen d'opérations d'I/O de disque d'écriture sur le volume cluster , signalé à des intervalles de 5 minutes. +
+ +### Données Cluster de Neptune [#cluster] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `backupRetentionPeriodStorageUsed` + + Octets + + Quantité totale de stockage de sauvegarde, en octets, utilisée pour prendre en charge la fenêtre de conservation des sauvegardes du cluster Neptune DB. Inclus dans le total rapporté par la métrique TotalBackupStorageBilled. +
+ `clusterReplicaLag` + + Millisecondes + + Pour une réplique en lecture, la quantité de décalage lors de la réplication des mises à jour à partir de l'instance principale, en millisecondes. +
+ `clusterReplicaLagMaximum` + + Millisecondes + + La quantité maximale de décalage entre l'instance principale et chaque instance de base de données Neptune dans le cluster de base de données, en millisecondes. +
+ `clusterReplicaLagMinimum` + + Millisecondes + + La quantité minimale de décalage entre l'instance principale et chaque instance de base de données Neptune dans le cluster de base de données, en millisecondes. +
+ `cpuUtilization` + + Pour cent + + Le pourcentage d'utilisation du processeur. +
+ `engineUptime` + + Secondes + + La durée d'exécution de l'instance, en secondes. +
+ `freeableMemory` + + Octets + + La quantité de mémoire vive disponible, en octets. +
+ `gremlinRequestsPerSec` + + Compter + + Nombre de requests par seconde adressées au moteur Gremlin. +
+ `gremlinWebSocketOpenConnections` + + Compter + + Le nombre de connexions WebSocket ouvertes à Neptune. +
+ `loaderRequestsPerSec` + + Compter + + Nombre de requests de chargeur par seconde. +
+ `mainRequestQueuePendingRequests` + + Compter + + Le nombre de requests en attente dans la file d'attente d'entrée en attente d'exécution. Neptune commence à limiter requests lorsqu'elles dépassent la capacité maximale de la file d'attente. +
+ `networkReceiveThroughput` + + Octets par seconde + + Le trafic réseau entrant (réception) sur l'instance de base de données, y compris le trafic de base de données des clients et le trafic Neptune utilisé pour monitoring et la réplication, en octets/seconde. +
+ `networkThroughput` + + Octets par seconde + + La quantité de débit réseau reçue et transmise aux clients par chaque instance du cluster Neptune DB, en octets par seconde. Ce débit n'inclut pas le trafic réseau entre l'instance du cluster DB et le volume cluster . +
+ `networkTransmitThroughput` + + Octets par seconde + + Le trafic réseau sortant (transmission) sur l'instance de base de données, y compris le trafic de base de données des clients et le trafic Neptune utilisé pour monitoring et la réplication, en octets/seconde. +
+ `numTxCommitted` + + Compter + + Le nombre de transactions effectuées avec succès par seconde. +
+ `numTxOpened` + + Compter + + Le nombre de transactions ouvertes sur le serveur par seconde. +
+ `numTxRolledBack` + + Compter + + Le nombre de transactions par seconde annulées sur le serveur en raison d'erreurs. +
+ `snapshotStorageUsed` + + Octets + + Quantité totale de stockage de sauvegarde consommée par tous les snapshots d'un cluster Neptune DB en dehors de sa fenêtre de conservation de sauvegarde, en octets. Inclus dans le total rapporté par la métrique TotalBackupStorageBilled. +
+ `sparqlRequestsPerSec` + + Compter + + Le nombre de requests par seconde adressées au moteur SPARQL. +
+ `totalBackupStorageBilled` + + Octets + + La quantité totale de stockage de sauvegarde pour laquelle vous êtes facturé pour un cluster Neptune DB donné, en octets. Inclut le stockage de sauvegarde mesuré par les métriques BackupRetentionPeriodStorageUsed et SnapshotStorageUsed. +
+ `totalRequestsPerSec` + + Compter + + Le nombre total de requests par seconde adressées au serveur à partir de toutes les sources. +
+ `totalClientErrorsPerSec` + + Compter + + Le nombre total par seconde de requests ayant échoué en raison de problèmes côté client. +
+ `totalServerErrorsPerSec` + + Compter + + Le nombre total par seconde de requests ayant échoué sur le serveur en raison de défaillances internes. +
+ `volumeBytesUsed` + + Octets + + La quantité de stockage utilisée par votre instance Neptune DB, en octets. Cette valeur affecte le coût du cluster Neptune DB. +
+ `volumeReadIOPs` + + Compter + + Nombre moyen d'opérations d'I/O de lecture facturées à partir d'un volume cluster , signalé à des intervalles de 5 minutes. Les opérations de lecture facturées sont calculées au niveau du volume cluster , agrégées à partir de toutes les instances du cluster Neptune DB, puis signalées à des intervalles de 5 minutes. +
+ `volumeWriteIOPs` + + Compter + + Nombre moyen d'opérations d'I/O de disque d'écriture sur le volume cluster , signalé à des intervalles de 5 minutes. +
+ +### Données Neptune ClusterByRole [#clusterByRole] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `backupRetentionPeriodStorageUsed` + + Octets + + Quantité totale de stockage de sauvegarde, en octets, utilisée pour prendre en charge la fenêtre de conservation des sauvegardes du cluster Neptune DB. Inclus dans le total rapporté par la métrique TotalBackupStorageBilled. +
+ `clusterReplicaLag` + + Millisecondes + + Pour une réplique en lecture, la quantité de décalage lors de la réplication des mises à jour à partir de l'instance principale, en millisecondes. +
+ `clusterReplicaLagMaximum` + + Millisecondes + + La quantité maximale de décalage entre l'instance principale et chaque instance de base de données Neptune dans le cluster de base de données, en millisecondes. +
+ `clusterReplicaLagMinimum` + + Millisecondes + + La quantité minimale de décalage entre l'instance principale et chaque instance de base de données Neptune dans le cluster de base de données, en millisecondes. +
+ `cpuUtilization` + + Pour cent + + Le pourcentage d'utilisation du processeur. +
+ `engineUptime` + + Secondes + + La durée d'exécution de l'instance, en secondes. +
+ `freeableMemory` + + Octets + + La quantité de mémoire vive disponible, en octets. +
+ `gremlinRequestsPerSec` + + Compter + + Nombre de requests par seconde adressées au moteur Gremlin. +
+ `gremlinWebSocketOpenConnections` + + Compter + + Le nombre de connexions WebSocket ouvertes à Neptune. +
+ `loaderRequestsPerSec` + + Compter + + Nombre de requests de chargeur par seconde. +
+ `mainRequestQueuePendingRequests` + + Compter + + Le nombre de requests en attente dans la file d'attente d'entrée en attente d'exécution. Neptune commence à limiter requests lorsqu'elles dépassent la capacité maximale de la file d'attente. +
+ `networkReceiveThroughput` + + Octets par seconde + + Le trafic réseau entrant (réception) sur l'instance de base de données, y compris le trafic de base de données des clients et le trafic Neptune utilisé pour monitoring et la réplication, en octets/seconde. +
+ `networkThroughput` + + Octets par seconde + + La quantité de débit réseau reçue et transmise aux clients par chaque instance du cluster Neptune DB, en octets par seconde. Ce débit n'inclut pas le trafic réseau entre l'instance du cluster DB et le volume cluster . +
+ `networkTransmitThroughput` + + Octets par seconde + + Le trafic réseau sortant (transmission) sur l'instance de base de données, y compris le trafic de base de données des clients et le trafic Neptune utilisé pour monitoring et la réplication, en octets/seconde. +
+ `numTxCommitted` + + Compter + + Le nombre de transactions effectuées avec succès par seconde. +
+ `numTxOpened` + + Compter + + Le nombre de transactions ouvertes sur le serveur par seconde. +
+ `numTxRolledBack` + + Compter + + Le nombre de transactions par seconde annulées sur le serveur en raison d'erreurs. +
+ `snapshotStorageUsed` + + Octets + + Quantité totale de stockage de sauvegarde consommée par tous les snapshots d'un cluster Neptune DB en dehors de sa fenêtre de conservation de sauvegarde, en octets. Inclus dans le total rapporté par la métrique TotalBackupStorageBilled. +
+ `sparqlRequestsPerSec` + + Compter + + Le nombre de requests par seconde adressées au moteur SPARQL. +
+ `totalBackupStorageBilled` + + Octets + + La quantité totale de stockage de sauvegarde pour laquelle vous êtes facturé pour un cluster Neptune DB donné, en octets. Inclut le stockage de sauvegarde mesuré par les métriques BackupRetentionPeriodStorageUsed et SnapshotStorageUsed. +
+ `totalRequestsPerSec` + + Compter + + Le nombre total de requests par seconde adressées au serveur à partir de toutes les sources. +
+ `totalClientErrorsPerSec` + + Compter + + Le nombre total par seconde de requests ayant échoué en raison de problèmes côté client. +
+ `totalServerErrorsPerSec` + + Compter + + Le nombre total par seconde de requests ayant échoué sur le serveur en raison de défaillances internes. +
+ `volumeBytesUsed` + + Octets + + La quantité de stockage utilisée par votre instance Neptune DB, en octets. Cette valeur affecte le coût du cluster Neptune DB. +
+ `volumeReadIOPs` + + Compter + + Nombre moyen d'opérations d'I/O de lecture facturées à partir d'un volume cluster , signalé à des intervalles de 5 minutes. Les opérations de lecture facturées sont calculées au niveau du volume cluster , agrégées à partir de toutes les instances du cluster Neptune DB, puis signalées à des intervalles de 5 minutes. +
+ `volumeWriteIOPs` + + Compter + + Nombre moyen d'opérations d'I/O de disque d'écriture sur le volume cluster , signalé à des intervalles de 5 minutes. +
+ +### Base de données NeptuneDonnées de classe [#database-class] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `backupRetentionPeriodStorageUsed` + + Octets + + Quantité totale de stockage de sauvegarde, en octets, utilisée pour prendre en charge la fenêtre de conservation des sauvegardes du cluster Neptune DB. Inclus dans le total rapporté par la métrique `TotalBackupStorageBilled` . +
+ `clusterReplicaLag` + + Millisecondes + + Pour une réplique en lecture, la quantité de décalage lors de la réplication des mises à jour à partir de l'instance principale, en millisecondes. +
+ `clusterReplicaLagMaximum` + + Millisecondes + + La quantité maximale de décalage entre l'instance principale et chaque instance de base de données Neptune dans le cluster de base de données, en millisecondes. +
+ `clusterReplicaLagMinimum` + + Millisecondes + + La quantité minimale de décalage entre l'instance principale et chaque instance de base de données Neptune dans le cluster de base de données, en millisecondes. +
+ `cpuUtilization` + + Pour cent + + Le pourcentage d'utilisation du processeur. +
+ `engineUptime` + + Secondes + + La durée d'exécution de l'instance, en secondes. +
+ `freeableMemory` + + Octets + + La quantité de mémoire vive disponible, en octets. +
+ `gremlinRequestsPerSec` + + Compter + + Nombre de requests par seconde adressées au moteur Gremlin. +
+ `gremlinWebSocketOpenConnections` + + Compter + + Le nombre de connexions WebSocket ouvertes à Neptune. +
+ `loaderRequestsPerSec` + + Compter + + Nombre de requests de chargeur par seconde. +
+ `mainRequestQueuePendingRequests` + + Compter + + Le nombre de requests en attente dans la file d'attente d'entrée en attente d'exécution. Neptune commence à limiter requests lorsqu'elles dépassent la capacité maximale de la file d'attente. +
+ `networkReceiveThroughput` + + Octets par seconde + + Le trafic réseau entrant (réception) sur l'instance de base de données, y compris le trafic de base de données des clients et le trafic Neptune utilisé pour monitoring et la réplication, en octets/seconde. +
+ `networkThroughput` + + Octets par seconde + + La quantité de débit réseau reçue et transmise aux clients par chaque instance du cluster Neptune DB, en octets par seconde. Ce débit n'inclut pas le trafic réseau entre l'instance du cluster DB et le volume cluster . +
+ `networkTransmitThroughput` + + Octets par seconde + + Le trafic réseau sortant (transmission) sur l'instance de base de données, y compris le trafic de base de données des clients et le trafic Neptune utilisé pour monitoring et la réplication, en octets/seconde. +
+ `numTxCommitted` + + Compter + + Le nombre de transactions effectuées avec succès par seconde. +
+ `numTxOpened` + + Compter + + Le nombre de transactions ouvertes sur le serveur par seconde. +
+ `numTxRolledBack` + + Compter + + Le nombre de transactions par seconde annulées sur le serveur en raison d'erreurs. +
+ `snapshotStorageUsed` + + Octets + + Quantité totale de stockage de sauvegarde consommée par tous les snapshots d'un cluster Neptune DB en dehors de sa fenêtre de conservation de sauvegarde, en octets. Inclus dans le total rapporté par la métrique `TotalBackupStorageBilled` . +
+ `sparqlRequestsPerSec` + + Compter + + Le nombre de requests par seconde adressées au moteur `SPARQL`. +
+ `totalBackupStorageBilled` + + Octets + + La quantité totale de stockage de sauvegarde pour laquelle vous êtes facturé pour un cluster Neptune DB donné, en octets. Inclut le stockage de sauvegarde mesuré par les métriques `BackupRetentionPeriodStorageUsed` et `SnapshotStorageUsed` . +
+ `totalRequestsPerSec` + + Compter + + Le nombre total de requests par seconde adressées au serveur à partir de toutes les sources. +
+ `totalClientErrorsPerSec` + + Compter + + Le nombre total par seconde de requests ayant échoué en raison de problèmes côté client. +
+ `totalServerErrorsPerSec` + + Compter + + Le nombre total par seconde de requests ayant échoué sur le serveur en raison de défaillances internes. +
+ `volumeBytesUsed` + + Octets + + La quantité de stockage utilisée par votre instance Neptune DB, en octets. Cette valeur affecte le coût du cluster Neptune DB. +
+ `volumeReadIOPs` + + Compter + + Nombre moyen d'opérations d'I/O de lecture facturées à partir d'un volume cluster , signalé à des intervalles de 5 minutes. Les opérations de lecture facturées sont calculées au niveau du volume cluster , agrégées à partir de toutes les instances du cluster Neptune DB, puis signalées à des intervalles de 5 minutes. +
+ `volumeWriteIOPs` + + Compter + + Nombre moyen d'opérations d'I/O de disque d'écriture sur le volume cluster , signalé à des intervalles de 5 minutes. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-network-firewall-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-network-firewall-monitoring-integration.mdx new file mode 100644 index 00000000000..dc275cc11d5 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-network-firewall-monitoring-integration.mdx @@ -0,0 +1,350 @@ +--- +title: Intégration AWS Network pare-feu Métriques +tags: + - Integrations + - AWS integrations + - Network Firewall +metaDescription: 'New Relic''s AWS Network Firewall integration: what data it reports and how to enable it.' +freshnessValidatedDate: '2023-08-07T00:00:00.000Z' +translationType: machine +--- + +L'intégration de l'infrastructure New Relic inclut désormais une intégration qui envoie les métriques pare-feu de votre réseau AWS à New Relic. Ce document explique la fonctionnalité de l'intégration, comment l'activer et quelles données sont disponibles pour le reporting. + +## Caractéristiques [#features] + +L'intégration AWS Network pare-feu Métriques collecte et envoie des données télémétriques à New Relic depuis votre réseau AWS pare-feu. Vous pouvez monitorer vos services AWS, interroger les données entrantes et créer un dashboard pour tout observer en un coup d'œil. + +## Activer l'intégration [#activate-ingration] + +Pour activer cette intégration, suivez les instructions de notre [documentation d'intégration Amazon flux de métriques CloudWatch ](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup/). + +## Rechercher et utiliser des données [#find-data] + +Pour trouver les métriques de votre intégration : + +1. Aller à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities)** +2. Select **Metrics and events** +3. Filtrer par `aws.networkfirewall`. + +## données métriques [#metrics] + +Cette intégration de New Relic Infrastructure collecte les métriques pare-feu du réseau AWS suivantes : + +### Données métriques pare-feu du réseau AWS [#firewall-metric-data] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique (min, max, moyenne, compte, somme) + + Unité + + Description +
+ `DroppedPackets` + + Compter + + Nombre de paquets abandonnés en raison d'actions de règle. Critères de rapport : Il y a une valeur différente de zéro. +
+ `InvalidDroppedPackets` + + Compter + + Nombre de paquets abandonnés en raison d'un échec de validation du paquet en raison de problèmes avec le paquet. Critères de rapport : Il y a une valeur différente de zéro. +
+ `OtherDroppedPackets` + + Compter + + Nombre de paquets abandonnés pour des raisons autres que celles décrites par `InvalidDroppedPackets` ou `DroppedPackets`. Critères de rapport : Il y a une valeur différente de zéro. +
+ `Packets` + + Compter + + Nombre de paquets inspectés pour une politique de pare-feu ou un groupe de règles sans état pour lequel une action personnalisée est définie. Cette métrique est uniquement utilisée pour la dimension `CustomAction`. Critères de rapport : Il y a une valeur différente de zéro. +
+ `PassedPackets` + + Compter + + Nombre de paquets que le réseau pare-feu pare-feu a laissé passer jusqu'à leurs destinations. Critères de rapport : Il y a une valeur différente de zéro. +
+ `ReceivedPackets` + + Compter + + Nombre de paquets reçus par le Réseau pare-feu pare-feu. Critères de rapport : Il y a une valeur différente de zéro. +
+ `RejectedPackets` + + Compter + + Nombre de paquets rejetés en raison des actions de la règle Rejeter à état. Critères de rapport : Il y a une valeur différente de zéro. +
+ `StreamExceptionPolicyPackets` + + Compter + + Nombre de paquets correspondant à la politique d'exception de flux de la politique du pare-feu. Critères de rapport : Il y a une valeur différente de zéro. +
+ `TLSDroppedPackets` + + Compter + + Nombre de paquets abandonnés par le pare-feu réseau lors de l'inspection des paquets SSL/TLS. Critères de rapport : Il y a une valeur différente de zéro. +
+ `TLSErrors` + + Compter + + Nombre d'erreurs observées par le pare-feu réseau lors de l'inspection des paquets SSL/TLS. Critères de rapport : Il y a une valeur différente de zéro. +
+ `TLSPassedPackets` + + Compter + + Nombre de paquets transmis par le pare-feu réseau lors de l'inspection des paquets SSL/TLS. Critères de rapport : Il y a une valeur différente de zéro. +
+ `TLSReceivedPackets` + + Compter + + Nombre de paquets SSL/TLS reçus par le réseau pare-feu pare-feu. Critères de rapport : Il y a une valeur différente de zéro. +
+ `TLSRejectedPackets` + + Compter + + Nombre de paquets rejetés par le pare-feu réseau lors de l'inspection des paquets SSL/TLS. Critères de rapport : Il y a une valeur différente de zéro. +
+ `TLSRevocationStatusOKConnections` + + Compter + + Le nombre de connexions SSL/TLS aux serveurs TLS dont les certificats ont été confirmés comme non révoqués. Critères de rapport : Il y a une valeur différente de zéro. +
+ `TLSRevocationStatusRevokedConnections` + + Compter + + Le nombre de connexions SSL/TLS aux serveurs TLS dont les certificats ont été confirmés comme révoqués. Critères de rapport : Il y a une valeur différente de zéro. +
+ `TLSRevocationStatusUnknownConnections` + + Compter + + Le nombre de connexions SSL/TLS aux serveurs TLS dont l'état de révocation des certificats est inconnu ou n'a pas pu être déterminé par le pare-feu. Cela peut se produire lorsque le répondeur OCSP d'un certificat de serveur renvoie un statut inconnu ou lorsque le pare-feu ne parvient pas à se connecter au point de terminaison CRL ou OCSP fourni dans le certificat. Critères de rapport : Il y a une valeur différente de zéro. +
+ `TLSTimedOutConnections` + + Compter + + Nombre de connexions SSL/TLS qui ont expiré lors de l'inspection SSL/TLS par le pare-feu réseau. Critères de rapport : Il y a une valeur différente de zéro. +
+ +### Dimensions du pare-feu réseau AWS + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Dimension + + Description +
+ `AvailabilityZone` + + Zone de disponibilité dans la Région où le Réseau pare-feu pare-feu est actif. +
+ `CustomAction` + + Dimension pour une action personnalisée de métriques de publication que vous avez définie. Vous pouvez définir ceci pour une action de règle dans un groupe de règles sans état ou pour une action par défaut sans état dans une stratégie de pare-feu. +
+ `Engine` + + Moteur de règles qui a traité le paquet. La valeur pour ceci est soit à état, soit sans état. +
+ `FirewallName` + + Nom que vous avez spécifié pour le Réseau pare-feu pare-feu. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polly-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polly-monitoring-integration.mdx new file mode 100644 index 00000000000..e11ae220d28 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polly-monitoring-integration.mdx @@ -0,0 +1,116 @@ +--- +title: Intégration monitoring Amazon Polly +metaDescription: 'The New Relic Amazon Polly integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration pour Amazon Polly qui rapporte vos métriques Polly à New Relic. + +## Caractéristiques [#features] + +Avec cette intégration, collectez et envoyez des données télémétriques à New Relic depuis votre service [Amazon Polly](https://docs.aws.amazon.com/polly) . Monitorer vos services, interrogez les données entrantes et créez un dashboard pour tout observer en un coup d'œil. + +## Rapporter les données [#report-data] + +Nous avons deux options pour signaler ces données. Le chemin recommandé consiste à configurer notre [intégration Amazon flux de métriques CloudWatch ](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream). Alternativement, vous pouvez utiliser notre [ancienne intégration Amazon qui s'appuie sur des sondages](/docs/infrastructure/infrastructure-integrations/cloud-integrations/configure-polling-frequency-data-collection-cloud-integrations). + +## Rechercher et utiliser des données [#find-use-data] + +Les données de cette intégration sont attachées au type de données `Metric` . Pour trouver ces données dans l'UI: accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Metrics and events** et filtrez sur `aws.polly`. + +## données métriques [#metrics] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique (min, max, moyenne, compte, somme) + + Unité + + Description +
+ `RequestCharacters` + + compter + + Le nombre de caractères facturables dans requests. +
+ `ResponseLattency` + + millisecondes + + La latence entre le moment où la demande a été effectuée et le début de la réponse en streaming. +
+ `5XXCount` + + compter + + Le nombre d'erreurs de serveur. La plage de codes de réponse HTTP pour une erreur de serveur est comprise entre 500 et 599. +
+ `2XXCount` + + compter + + Le nombre de requests de traduction réussies. Le code de réponse pour une demande réussie est compris entre 200 et 299. +
+ `4XXCount` + + compter + + Le nombre d’erreurs utilisateur survenues. La plage de codes de réponse HTTP pour une erreur utilisateur est comprise entre 400 et 499. +
+ +## Conseils pour utiliser vos données [#use-data] + +Vous pouvez créer pour vous informer de tout changement en cours. Par exemple, une alerte peut être configurée pour informer les parties concernées des erreurs critiques ou fatales. [En savoir plus sur la création d'alertes](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-qldb-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-qldb-monitoring-integration.mdx new file mode 100644 index 00000000000..04850f33b4d --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-qldb-monitoring-integration.mdx @@ -0,0 +1,223 @@ +--- +title: Intégration monitoring Amazon QLDB +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS QLDB monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +New Relic propose une intégration permettant de signaler vos données [de base de données Amazon Quantum Ledger (QLDB)](https://aws.amazon.com/qldb/) à New Relic. Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration Amazon QLDB : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez une intégration. + +Les données de cette intégration sont attachées au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Grand livre + + `AwsQldbLedgerSample` + + `AwsQldbLedger` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données Amazon QLDB pour Ledger. + +### Données du grand livre QLDB + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `journalStorage` + + Octets + + La quantité totale d'espace disque utilisée par le journal du grand livre, indiquée par intervalles de 15 minutes. Le journal contient l’historique complet, immuable et vérifiable de toutes les modifications apportées à vos données. +
+ `indexedStorage` + + Octets + + La quantité totale d'espace disque utilisée par les tables, les index et l'historique indexé du grand livre, indiquée par intervalles de 15 minutes. Le stockage indexé se compose de données de grand livre optimisées pour les requêtes hautes performances. +
+ `readIOs` + + Compter + + Le nombre d'opérations d'I/O de lecture de disque, signalé à des intervalles d'une minute. +
+ `writeIOs` + + Compter + + Le nombre d'opérations I/O d'écriture sur disque, signalé à des intervalles d'une minute. +
+ `commandLatency` + + Millisecondes + + La durée nécessaire aux opérations sur les données, indiquée par intervalles d'une minute. +
+ `occConflictExceptions` + + Compter + + Le nombre de requests adressées à QLDB qui génèrent un `OccConflictException`. +
+ `session4xxExceptions` + + Compter + + Le nombre de requests adressées à QLDB qui génèrent une erreur HTTP 4xx. +
+ `session5xxExceptions` + + Compter + + Le nombre de requests adressées à QLDB qui génèrent une erreur HTTP 5xx. +
+ `sessionRateExceededExceptions` + + Compter + + Le nombre de requests adressées à QLDB qui génèrent un `SessionRateExceededException`. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-rds-enhanced-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-rds-enhanced-monitoring-integration.mdx new file mode 100644 index 00000000000..5386031d660 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-rds-enhanced-monitoring-integration.mdx @@ -0,0 +1,1254 @@ +--- +title: Intégration du monitoring amélioré d'Amazon RDS +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS RDS Enhanced Monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration pour la collecte [de données Amazon RDS améliorées](http://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_Monitoring.OS.html); cela complète l'[intégration de base de New Relic RDS](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-rds-monitoring-integration) avec des mesures en temps réel sur le système d'exploitation sur lequel l'nstance de base de données s'exécute. + +## Caractéristiques [#features] + +Cette intégration New Relic vous permet de monitorer et [d'alerter](/docs/infrastructure/new-relic-infrastructure/configuration/infrastructure-alerts-add-edit-or-view-host-alert-information) sur le monitoring RDS Enhanced. Vous pouvez utiliser les données d'intégration et pour monitorer les processus de base de données et identifier les points problématiques potentiels ainsi que pour profiler la base de données, ce qui vous permet d'améliorer et d'optimiser leur réponse et leur coût. + +## Activer monitoringaméliorée [#activate] + + + L'activation de cette intégration entraînera des frais supplémentaires sur votre compte Amazon CloudWatch. En outre, il existe certaines limitations et différences de collecte de données métriques CPU qui sont expliquées dans la documentation [monitoringaméliorée](http://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_Monitoring.OS.html) d'Amazon. + + +Vous devez d’abord activer l’ [intégration de monitoring New Relic Amazon RDS](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-rds-monitoring-integration) avant d’activer le monitoring RDS amélioré. Assurez-vous d’avoir terminé les étapes de [Connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +New Relic utilise AWS Lambda afin de collecter le log RDS et de fournir des données réelles en temps quasi réel de votre instance RDS, cette capacité est appelée monitoring amélioré RDS dans AWS. + +Suivez ces étapes pour activer l’intégration du monitoring RDS amélioré : + +1. Spécifiez l’instance RDS qui nécessite l’activation du monitoring RDS amélioré. Vous pouvez le spécifier lors de la création ou de la modification de l'instance : sous **Monitoring**, définissez **Enable Enhanced Monitoring** sur **Yes**. Nous vous recommandons de régler les données **Granularity** sur 15 secondes. +2. Une fois monitoring améliorée activée, un flux appelé `RDSOSMetrics` est créé dans le log AWS CloudWatch . Des mesures monitoring améliorées sont disponibles via ce flux. Créez une fonction Lambda et abonnez-la à ce flux dans les étapes suivantes pour obtenir les données. +3. Créez une nouvelle fonction AWS Lambda à partir du référentiel Serverless : accédez à **Lambda > Create Function > Browse serverless App repository**, cochez la case **Show apps that create custom IAM roles or resource policies** et recherchez `NewRelic-log-ingestion`. +4. Remplissez la variable d’environnement `LICENSE_KEY` avec votre compte New Relic . +5. Passez en revue tous les paramètres facultatifs et adaptez-les en fonction de vos cas d’utilisation. +6. Sélectionnez **Deploy** pour créer une nouvelle stack CloudFormation, une nouvelle fonction appelée `newrelic-log-ingestion` et le rôle requis. +7. Accédez à la fonction `newrelic-log-ingestion` . +8. Continuez avec la procédure pour [diffuser le log vers la fonction Lambda](#stream-logs). + + + La fonction `newrelic-log-ingestion` nécessite la politique AWSLambdaBasicExecutionRole qui contient les autorisations minimales (comme recommandé par AWS). Un nom de rôle IAM personnalisé peut être défini au moment de l'installation, sinon, un rôle approprié sera créé, ce qui nécessitera que CAPABILITY\_IAM soit reconnu. + + +## log de flux vers la fonction Lambda [#stream-logs] + +Pour lier le flux log `RDSOSMetrics` à la fonction Lambda (format JSON) : + +1. À partir de **AWS Console > CloudWatch > Logs**, sélectionnez le groupe log `RDSOSMetrics` et appliquez **Actions > Create Lambda subscription filter**. +2. Pour le **Lambda function**, sélectionnez `newrelic-log-ingestion`. +3. Dans la liste déroulante **Log Format** , sélectionnez `JSON` comme **Log format**. +4. Saisissez un abonnement **filter name**. +5. En bas, cliquez sur le bouton **Start streaming** pour enregistrer votre filtre d’abonnement Lambda. + +Une fois terminée, la fonction Lambda enverra toutes les lignes log de `RDSOSMetrics` aux services d'ingestion de New Relic. + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration du monitoring amélioré d'Amazon RDS : + +* Intervalle d'interrogation de New Relic : + + * 30 secondes en moyenne (collectées via le log CloudWatch ) + * Configurable lors de la configuration d'AWS Lambda + +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez le lien **RDS > Enhanced monitoring dashboard** . + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `DatastoreSample` , avec une valeur `provider` de `RdsDbInstance` . + +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +New Relic collecte les données RDS améliorées suivantes : + +### données métriques pour tous les moteurs de base de données (sauf MS SQL Server) + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Groupe + + Métriques + + Description +
+ `General` + + `engine` + + Le moteur de base de données pour l'instance DB. +
+ `instanceId` + + L'identifiant de l'instance de base de données. +
+ `instanceResourceId` + + Un identifiant unique à la région et immuable pour l'nstance de base de données, également utilisé comme identifiant de flux log . +
+ `numVCpus` + + Le nombre de processeurs virtuels pour l'instance de base de données. +
+ `timestamp` + + L'heure à laquelle les mesures ont été prises. +
+ `uptime` + + La durée pendant laquelle l'instance de base de données a été active. +
+ `version` + + La version du format JSON du flux des métriques du système d'exploitation. +
+ `cpuUtilization` + + `guest` + + Le pourcentage de CPU utilisé par les programmes invités. +
+ `idle` + + Le pourcentage de CPU qui est inactif. +
+ `irq` + + Pourcentage du processeur utilisé par les interruptions logicielles. +
+ `nice` + + Pourcentage du processeur utilisé par les programmes exécutés avec la priorité la plus basse. +
+ `steal` + + Le pourcentage de CPU utilisé par d’autres machines virtuelles. +
+ `system` + + Le pourcentage de CPU utilisé par le noyau. +
+ `total` + + Le pourcentage total du processeur utilisé. Cette valeur exclut la valeur sympa. +
+ `user` + + Le pourcentage de CPU utilisé par les programmes utilisateur. +
+ `wait` + + Pourcentage de CPU inutilisé en attente d'accès I/O . +
+ `diskIO` (non disponible pour Amazon Aurora) + + `avgQueueLen` + + Le nombre de requests en attente dans la file d'attente du périphérique d'I/O . +
+ `avgReqSz` + + La taille moyenne d'une requête, en kilo-octets. +
+ `await` + + Le nombre de millisecondes nécessaires pour répondre aux requests, y compris le temps d'attente et le temps de service. +
+ `device` + + L'identifiant du périphérique de disque utilisé. +
+ `readIOsPS` + + Le nombre d'opérations de lecture par seconde. +
+ `readKb` + + Le nombre total de kilo-octets lus. +
+ `readKbPS` + + Le nombre de kilo-octets lus par seconde. +
+ `rrqmPS` + + Le nombre de requests de lecture fusionnées mises en file d'attente par seconde. +
+ `tps` + + Le nombre de transactions d'I/O par seconde. +
+ `util` + + Le pourcentage de temps CPU pendant lequel requests ont été émises. +
+ `writeIOsPS` + + Le nombre d'opérations d'écriture par seconde. +
+ `writeKb` + + Le nombre total de kilo-octets écrits. +
+ `writeKbPS` + + Le nombre de kilo-octets écrits par seconde. +
+ `wrqmPS` + + Le nombre de requests d'écriture fusionnées mises en file d'attente par seconde. +
+ `fileSys` + + `maxFiles` + + Le nombre maximal de fichiers pouvant être créés pour le système de fichiers. +
+ `total` + + Le nombre total d'espace disque disponible pour le système de fichiers, en kilo-octets. +
+ `used` + + La quantité d'espace disque utilisée par les fichiers dans le système de fichiers, en kilo-octets. +
+ `usedFilePercent` + + Le pourcentage de fichiers disponibles en cours d'utilisation. +
+ `usedFiles` + + Le nombre de fichiers dans le système de fichiers. +
+ `usedPercent` + + Le pourcentage de l'espace disque du système de fichiers utilisé. +
+ `loadAverageMinute` + + `fifteen` + + Le nombre de processus demandant du temps CPU au cours des 15 dernières minutes. +
+ `five` + + Le nombre de processus demandant du temps CPU au cours des 5 dernières minutes. +
+ `one` + + Le nombre de processus demandant du temps CPU au cours de la dernière minute. +
+ `memory` + + `active` + + La quantité de mémoire attribuée, en kilo-octets. +
+ `buffers` + + La quantité de mémoire utilisée pour I/O requests la mise en mémoire tampon avant l'écriture sur le périphérique de stockage, en kilo-octets. +
+ `cached` + + La quantité de mémoire utilisée pour la mise en cache des I/O basées sur le système de fichiers. +
+ `dirty` + + La quantité de pages de mémoire dans la RAM qui ont été modifiées mais pas écrites dans leur bloc de données associé dans le stockage, en kilo-octets. +
+ `free` + + La quantité de mémoire non attribuée, en kilo-octets. +
+ `hugePagesFree` + + Le nombre de pages géantes gratuites. Les pages volumineuses sont une fonctionnalité du noyau Linux. +
+ `hugePagesRsvd` + + Le nombre de pages énormes engagées. +
+ `hugePagesSize` + + La taille de chaque unité de page volumineuse, en kilo-octets. +
+ `hugePagesSurp` + + Le nombre de pages excédentaires disponibles par rapport au total. +
+ `hugePagesTotal` + + Le nombre total de pages volumineuses pour le système. +
+ `inactive` + + La quantité de pages de mémoire les moins fréquemment utilisées, en kilo-octets. +
+ `mapped` + + La quantité totale de contenu du système de fichiers mappé en mémoire dans un espace d'adressage de processus, en kilo-octets. +
+ `pageTables` + + La quantité de mémoire utilisée par les tables de pages, en kilo-octets. +
+ `slab` + + La quantité de structures de données du noyau réutilisables, en kilo-octets. +
+ `total` + + La quantité totale de mémoire, en kilo-octets. +
+ `writeback` + + La quantité de kilo-octets. +
+ `network` + + `rx` + + Le nombre d'octets reçus par seconde. +
+ `tx` + + Le nombre d'octets téléchargés par seconde. +
+ `process` + + `cpuUsedPc` + + Le pourcentage de CPU utilisé par le processus. +
+ `rss` + + La quantité de RAM allouée au processus, en kilo-octets. +
+ `memoryUsedPc` + + La quantité de mémoire utilisée par le processus, en kilo-octets. +
+ `processName` + + Le nom du processus. +
+ `swap` + + `cached` + + La quantité de mémoire d'échange, en kilo-octets, utilisée comme mémoire cache. +
+ `free` + + La quantité totale de mémoire d'échange libre, en kilo-octets. +
+ `total` + + La quantité totale de mémoire d'échange disponible, en kilo-octets. +
+ `tasks` + + `blocked` + + Le nombre de tâches bloquées. +
+ `running` + + Le nombre de tâches en cours d'exécution. +
+ `sleeping` + + Le nombre de tâches en veille. +
+ `stopped` + + Le nombre de tâches arrêtées. +
+ `total` + + Le nombre total de tâches. +
+ `zombie` + + Le nombre de tâches enfants qui sont inactives avec une tâche parent active. +
+ +### données métriques pour MS SQL [#sql-metrics] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Groupe + + Métriques + + Description +
+ `disks` + + `totalKb` + + L'espace total du disque, en kilo-octets. +
+ `usedKb` + + La quantité d'espace utilisée sur le disque, en kilo-octets. +
+ `usedPc` + + Le pourcentage d'espace utilisé sur le disque. +
+ `availKb` + + L'espace disponible sur le disque, en kilo-octets. +
+ `availPc` + + Le pourcentage d'espace disponible sur le disque. +
+ `rdCountPS` + + Le nombre d'opérations de lecture par seconde +
+ `rdBytesPS` + + Le nombre d'octets lus par seconde. +
+ `wrCountPS` + + Le nombre d'opérations d'écriture par seconde. +
+ `wBytesPS` + + La quantité d'octets écrits par seconde. +
+ `memory` + + `commitToKb` + + La quantité d'espace d'adressage virtuel sauvegardé dans le fichier d'échange en cours d'utilisation, c'est-à-dire la charge de validation actuelle. Cette valeur est composée de la mémoire principale (RAM) et du disque (fichiers d'échange). +
+ `commitLimitKb` + + La valeur maximale possible pour la métrique commitTotKb. Cette valeur est la somme de la taille actuelle du fichier d'échange et de la mémoire physique disponible pour le contenu paginable, à l'exclusion de la RAM attribuée aux zones non paginables. +
+ `commitPeakKb` + + La plus grande valeur de la métrique commitTotKb depuis le dernier démarrage du système d'exploitation. +
+ `kernTotKb` + + La somme de la mémoire dans les pools de noyau paginés et non paginés, en kilo-octets. +
+ `kernPagedKb` + + La quantité de mémoire dans le pool de noyau paginé, en kilo-octets. +
+ `kernNonpagedKb` + + La quantité de mémoire dans le pool de noyau non paginé, en kilo-octets. +
+ `pageSize` + + La taille d'une page, en octets. +
+ `physTotKb` + + La quantité de mémoire physique, en kilo-octets. +
+ `physAvailKb` + + La quantité de mémoire physique disponible, en kilo-octets. +
+ `sqlServerTotKb` + + La quantité de mémoire dédiée à Microsoft SQL Server, en kilo-octets. +
+ `sysCacheKb` + + La quantité de mémoire cache système, en kilo-octets. +
+ `network` + + `rdBytesPS` + + Le nombre d'octets reçus par seconde. +
+ `wrBytesPS` + + Le nombre d'octets envoyés par seconde. +
+ `process` + + `cpuUsedPc` + + Le pourcentage de CPU utilisé par le processus. +
+ `memUsedPc` + + La quantité de mémoire utilisée par le processus, en kilo-octets. +
+ `processName` + + Le nom du processus. +
+ `workingSetKb` + + La quantité de mémoire dans l'ensemble de travail privé plus la quantité de mémoire utilisée par le processus et pouvant être partagée avec d'autres processus, en kilo-octets. +
+ `workingSetPrivKb` + + La quantité de mémoire utilisée par un processus, mais qui ne peut pas être partagée avec d'autres processus, en kilo-octets. +
+ `workingSetShareableKb` + + La quantité de mémoire utilisée par un processus et pouvant être partagée avec d'autres processus, en kilo-octets. +
+ `virtKb` + + La quantité d'espace d'adressage virtuel utilisée par le processus, en kilo-octets. L'utilisation de l'espace d'adressage virtuel n'implique pas nécessairement l'utilisation correspondante des pages de mémoire disque ou principale. +
+ `system` + + `handles` + + Le nombre de poignées que le système utilise. +
+ `processes` + + Le nombre de processus en cours d'exécution sur le système. +
+ `threads` + + Le nombre de threads exécutés sur le système. +
+ +## Définitions + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Terme + + Description +
+ Type d'événement + + `DataStoreSample` +
+ Fournisseur + + `RdsDbInstance` +
+ Processus + + Le monitoring amélioré vous permet de monitorer les processus suivants associés à votre instance RDS. : + + * `RDS Process`:Affiche un résumé des ressources utilisées par l'agent de gestion RDS, les processus monitoring des diagnostics et d'autres processus AWS requis pour prendre en charge l'instance de base de données RDS. + * `RDS Child Process`:Imbriqué sous Processus RDS, affiche un résumé des processus RDS qui prennent en charge l'nstance de base de données, par exemple `aurora` pour le cluster de base de données Amazon Aurora et `mysqld` pour l'instance de base de données MySQL . + * `OS Processes`:Affiche un résumé des processus du noyau et du système, qui ont généralement un impact minimal sur les performances. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-rds-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-rds-monitoring-integration.mdx new file mode 100644 index 00000000000..165c51d7bca --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-rds-monitoring-integration.mdx @@ -0,0 +1,814 @@ +--- +title: Intégration monitoring Amazon RDS +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s RDS monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données Amazon Web Services RDS à New Relic. Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +New Relic propose également une [intégration pour un monitoring RDS amélioré](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-rds-enhanced-monitoring-integration). + +## Caractéristiques [#features] + +[Le service de bases de données relationnelles (RDS)](http://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Welcome.html) d'Amazon est un service Web qui facilite la configuration, l'exploitation et la mise à l'échelle d'une base de données relationnelles dans le cloud. Il offre une capacité redimensionnable et rentable pour une base de données relationnelle standard et gère les tâches d'administration de base de données courantes. + +L'intégration monitoring RDS de New Relic rassemble des données métriques et configuration pour la base de données relationnelle associée à votre compte Amazon RDS. Vos données RDS sont disponibles dans prédéfinis et vous pouvez également créer [des requêtes et des graphiques personnalisés](/docs/infrastructure/integrations-getting-started/getting-started/use-integration-data-new-relic-insights). Vous pouvez créer [une condition d'alerte](/docs/infrastructure/new-relic-infrastructure/configuration/infrastructure-alerts-add-edit-or-view-host-alert-information) pour les données RDS et utiliser les données signalées pour planifier la capacité RDS future. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration Amazon RDS : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute pour l'instance RDS ; 5 minutes pour le cluster RDS + +## Rechercher et utiliser des données [#find-data] + +Pour afficher le dashboard RDS : + +1. Allez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**. +2. Dans la liste des services AWS, faites défiler jusqu’à RDS puis cliquez sur le lien RDS Dashboard . + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) à l'aide du [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `DatastoreSample` , avec une valeur `provider` de `RdsDbInstance` pour l'instance de base de données ou `RdsDbCluster` pour le cluster de base de données Aurora. + +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données Amazon RDS pour le cluster et également par exemple. Certaines métriques instance RDS sont distinctes pour l’instance cluster et l’instance autonome. + +### Données métriques cluster RDS + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `volumeBytesUsed` + + Volume d'octets utilisés. +
+ `volumeReadIops` + + Volume lu IOPS. +
+ `volumeWriteIops` + + IOPS d'écriture de volume. +
+ +### Données métriques communes instance RDS + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `cpuCreditUsage` + + Le nombre de crédits CPU consommés pendant la période spécifiée. +
+ `cpuCreditBalance` + + Le nombre de crédits CPU qu'une instance a accumulés. +
+ `CPUUtilization` + + Le pourcentage de CPU utilisé par une instance de base de données. +
+ `databaseConnections` + + Le nombre de connexions à une instance. +
+ `diskQueueDepth` + + Le nombre de requests de lecture/écriture en attente d'accès au disque. +
+ `freeableMemoryBytes` + + La quantité de mémoire vive disponible, en octets. +
+ `maximumUsedTransactionIDs` + + L'âge de l'identifiant de transaction non aspiré le plus ancien, dans les transactions. +
+ `networkReceiveThroughput` + + La quantité de débit réseau reçue des clients par chaque instance du cluster de base de données Aurora MySQL, en octets par seconde. +
+ `networkTransmitThroughput` + + La quantité de débit réseau envoyée aux clients par chaque instance du cluster Aurora DB, en octets par seconde. +
+ `readLatency` + + La durée moyenne nécessaire par opération I/O de disque, en secondes. +
+ `readThroughput` + + Le nombre moyen d'octets lus sur le disque par seconde. +
+ `swapUsageBytes` + + La quantité d'espace d'échange utilisée sur l'instance de base de données Aurora PostgreSQL, en octets. +
+ `transactionLogsDiskUsageBytes` + + La quantité d'espace disque occupée par le log des transactions sur l'nstance de base de données Aurora PostgreSQL, en octets. +
+ +### Données d'instance de cluster RDS [#cluster-instance] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `activeTransactions` + + Le nombre moyen de transactions en cours d'exécution sur une instance de base de données Aurora par seconde. +
+ `auroraReplicaLag` + + Pour une réplique Aurora, la quantité de décalage lors de la réplication des mises à jour à partir de l'instance principale, en millisecondes. +
+ `auroraReplicaLagMaximum` + + La quantité maximale de décalage entre l'instance principale et chaque instance de base de données Aurora dans le cluster de base de données, en millisecondes. +
+ `auroraReplicaLagMinimum` + + La quantité minimale de décalage entre l'instance principale et chaque instance de base de données Aurora dans le cluster de base de données, en millisecondes. +
+ `backtrackChangeRecordsCreationRate` + + Le nombre d'enregistrements de modifications de suivi créés sur cinq minutes pour votre cluster de base de données. +
+ `backtrackChangeRecordsStored` + + Le nombre réel d'enregistrements de modifications de suivi utilisés par votre cluster de base de données. +
+ `backtrackWindowActual` + + La différence entre la fenêtre de retour en arrière cible et la fenêtre de retour en arrière réelle. +
+ `backtrackWindowAlert` + + Le nombre de fois où la fenêtre de retour en arrière réelle est plus petite que la fenêtre de retour en arrière cible pour une période donnée. +
+ `blockedTransactions` + + Le nombre moyen de transactions dans la base de données qui sont bloquées par seconde. +
+ `bufferCacheHitRatio` + + Le pourcentage de requests traitées par le cache tampon. +
+ `commitLatency` + + La quantité de latence pour les opérations de validation, en millisecondes. +
+ `commitThroughput` + + Le nombre moyen d'opérations de validation par seconde. +
+ `ddlLatency` + + La quantité de latence pour requests en langage de définition de données (DDL), en millisecondes, par exemple requests de création, de modification et de suppression. +
+ `ddlThroughput` + + Le nombre moyen de requests DDL par seconde. +
+ `deadlocks` + + Le nombre moyen de blocages dans la base de données par seconde. +
+ `deleteLatency` + + La quantité de latence pour la requête de suppression, en millisecondes. +
+ `deleteThroughput` + + Le nombre moyen de requêtes de suppression par seconde. +
+ `dmlLatency` + + La quantité de latence pour les insertions, les mises à jour et les suppressions, en millisecondes. +
+ `dmlThroughput` + + Le nombre moyen d'insertions, de mises à jour et de suppressions par seconde. +
+ `engineUptime` + + La durée d'exécution de l'instance, en secondes. +
+ `failedSqlStatements` + + Cette métrique, affichée sous la catégorie SQL de la vue des dernières métriques dans la console Amazon RDS, ne s'applique pas à Amazon Aurora. +
+ `freeLocalStorageBytes` + + La quantité de stockage disponible pour les tables temporaires et le log, en octets. +
+ `insertLatency` + + La quantité de latence pour la requête d'insertion, en millisecondes. +
+ `insertThroughput` + + Le nombre moyen de requêtes d'insertion par seconde. +
+ `loginFailures` + + Le nombre moyen de tentatives de connexion infructueuses par seconde. +
+ `networkThroughput` + + La quantité de débit réseau reçue et transmise aux clients par chaque instance du cluster de base de données Aurora MySQL, en octets par seconde. +
+ `queries` + + Le nombre moyen de requêtes exécutées par seconde. +
+ `rdsToAuroraPostgreSQLReplicaLag` + + La quantité de décalage en secondes lors de la réplication des mises à jour de l'instance RDS PostgreSQL principale vers d'autres nœuds du cluster. +
+ `resultSetCacheHitRatio` + + Le pourcentage de requests traitées par le cache Resultset. +
+ `selectLatency` + + La quantité de latence pour la requête de sélection, en millisecondes. +
+ `selectThroughput` + + Le nombre moyen de requêtes de sélection par seconde. +
+ `totalConnections` + + Nombre total de connexions à l'instance de base de données. +
+ `updateLatency` + + La quantité de latence pour la requête de mise à jour, en millisecondes. +
+ `updateThroughput` + + Le nombre moyen de requêtes de mise à jour par seconde. +
+ `volumeReadIOPs` + + Nombre d'opérations d'I/O de lecture facturées à partir d'un volume cluster , signalées à des intervalles de 5 minutes. +
+ `volumeWriteIOPs` + + Nombre d'opérations d'I/O de disque d'écriture sur le volume cluster , signalé à des intervalles de 5 minutes. +
+ +### Données d'instance autonome RDS [#standalone-instance] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `allocatedStorageBytes` + + Spécifie la taille de stockage allouée, en octets. Notez que ces données ne proviennent pas d'une métrique AWS CloudWatch, mais de l'attribut d'inventaire `allocatedStorage`. +
+ `binLogDiskUsageBytes` + + La quantité d'espace disque occupée par le log binaire sur le maître, en octets. +
+ `diskQueueDepth` + + Le nombre de requests de lecture/écriture en attente d'accès au disque. +
+ `freeStorageSpaceBytes` + + La quantité de stockage disponible pour les tables et le log, en octets. +
+ `maximumUsedTransactionIDs` + + L'âge de l'identifiant de transaction non aspiré le plus ancien, dans les transactions. +
+ `oldestReplicationSlotLag` + + Affiche le retard en secondes de la réplique la plus en retard en termes de données WAL reçues. +
+ `readIops` + + Le nombre moyen d'opérations d'I/O de disque par seconde. +
+ `readLatency` + + La durée moyenne nécessaire à chaque opération I/O sur disque. +
+ `readThroughput` + + Le nombre moyen d'octets lus sur le disque par seconde. +
+ `replicaLag` + + La quantité de décalage lors de la réplication des mises à jour à partir de l'instance principale, en millisecondes. +
+ `replicationSlotDiskUsage` + + La quantité d'espace disque occupée par les emplacements de réplication. +
+ `swapUsageBytes` + + La quantité d'espace d'échange utilisée sur l'instance de base de données Aurora PostgreSQL, en octets. +
+ `transactionLogsDiskUsage` + + La quantité d'espace disque occupée par le log des transactions sur l'nstance de base de données Aurora PostgreSQL. +
+ `transactionLogsGeneration` + + Quelle quantité de stockage est utilisée pour les données WAL. +
+ `writeIops` + + Le nombre moyen d'opérations d'I/O de disque par seconde. +
+ `writeLatency` + + La durée moyenne nécessaire à chaque opération I/O sur disque. +
+ `writeThroughput` + + Le nombre moyen d'octets écrits sur le disque par seconde. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-redshift-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-redshift-integration.mdx new file mode 100644 index 00000000000..53cabdf9759 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-redshift-integration.mdx @@ -0,0 +1,354 @@ +--- +title: Intégration d'Amazon Redshift +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon Redshift monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données Amazon Redshift à New Relic. Ce document explique comment activer l'intégration et décrit les données rapportées. + +## Caractéristiques [#features] + +[Amazon Redshift](https://aws.amazon.com/redshift) est un entrepôt de données entièrement géré qui permet d'analyser de manière simple et économique toutes vos données à l'aide de SQL standard et de vos outils Amazon Business Intelligence (BI) existants. L'intégration Redshift de New Relic rassemble des données métriques et configuration pour la base de données relationnelle associée à votre compte Amazon Redshift . + +Les données déclarées incluent les octets reçus et transmis, l'état de santé, la base de données de connexion, la latence et d'autres [mesures](#metrics)). Vos données Redshift sont disponibles en versions prédéfinies et vous pouvez également créer [des requêtes et des graphiques personnalisés](/docs/infrastructure/integrations-getting-started/getting-started/use-integration-data-new-relic-insights). + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +Pour permettre à New Relic d'accéder aux données Redshift, votre compte AWS doit être associé à la politique **ReadOnly** ou les autorisations suivantes doivent être accordées à votre compte New Relic : + +* `describeClusters` +* `describeClusterParameters` + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration Amazon RedShift : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration Redshift. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) à l'aide du [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `DatastoreSample`, avec une valeur `provider` de `RedshiftNode` pour les nœuds Redshift ou `RedshiftCluster` pour le cluster Redshift . + +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +New Relic collecte les données Amazon Redshift suivantes. Pour une description complète de chaque métrique, consultez [la documentation Redshift](http://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/rs-metricscollected.html) d'Amazon. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Type de données + + Dimension +
+ `CPUUtilization` + + pour cent + + `NodeID, ClusterIdentifier` +
+ `DatabaseConnections` + + compter + + `ClusterIdentifier` +
+ `HealthStatus` + + 1/0 (`HEALTHY`/`UNHEALTHY` dans la console Amazon CloudWatch) + + `ClusterIdentifier` +
+ `MaintenanceMode` + + 1/0 (`ON`/`OFF` dans la console Amazon CloudWatch) + + `ClusterIdentifier` +
+ `NetworkReceiveThroughput` + + octets/secondes (`MB/s` dans la console Amazon CloudWatch) + + `NodeID`, `ClusterIdentifier` +
+ `NetworkTransmitThroughput` + + octets/secondes (`MB/s` dans la console Amazon CloudWatch) + + `NodeID`, `ClusterIdentifier` +
+ `PercentageDiskSpaceUsed` + + pour cent + + `NodeID`, `ClusterIdentifier` +
+ `QueriesCompletedPerSecond` + + nombre/seconde (pour cluster multi-nœuds) + + `latency`, `ClusterIdentifier` +
+ `QueryDuration` + + microsecondes (pour un cluster multi-nœuds) + + `latency`, `ClusterIdentifier` +
+ `ReadIOPS` + + compte/seconde + + `NodeID`, `ClusterIdentifier` +
+ `ReadLatency` + + secondes + + `NodeID` +
+ `ReadThroughput` + + octets (`GB/s` dans la console Amazon CloudWatch) + + `NodeID` +
+ `WLMQueriesCompletedPerSecond` + + nombre/seconde (pour cluster multi-nœuds) + + `ClusterIdentifier` +
+ `WLMQueryDuration` + + Microsecondes (pour cluster multi-nœuds) + + `ClusterIdentifier` +
+ `WriteIOPS` + + compte/secondes + + `NodeID` +
+ `WriteLatency` + + secondes + + `NodeID` +
+ `WriteThroughput` + + octets (`GB/s` dans la console Amazon CloudWatch) + + `NodeID` +
+ +## Dimensions des métriques Amazon Redshift [#dimensions] + +Les données Amazon Redshift peuvent être filtrées selon l’une des [dimensions](http://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/rs-metricscollected.html#rs-metric-dimensions) suivantes : + + + + + + + + + + + + + + + + + + + + + + + +
+ Dimension + + Description +
+ `NodeID` + + Filtre les données demandées spécifiques aux nœuds d'un cluster. `NodeID` sera soit `Leader`, `Shared`, soit `Compute-N`, où `N` est 0, 1, etc. pour le nombre de nœuds dans le cluster. + + `Shared` signifie que le cluster n'a qu'un seul nœud. Les nœuds `Leader` et `Compute` sont combinés. +
+ `ClusterIdentifier` + + Filtre les données demandées spécifiques au cluster. Les métriques spécifiques au cluster incluent `HealthStatus`, `MaintenanceMode` et `DatabaseConnections`. + + En général, les métriques de cette dimension (par exemple, `ReadIOPS`) qui sont également des métriques de nœuds représentent un agrégat des données de métrique de nœud. Soyez prudent dans l’interprétation de ces métriques, car elles regroupent le comportement des nœuds `Leader` et `Compute` . +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-rekognition-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-rekognition-monitoring-integration.mdx new file mode 100644 index 00000000000..f7749f80839 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-rekognition-monitoring-integration.mdx @@ -0,0 +1,202 @@ +--- +title: Intégration Amazon Rekognition monitoring +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Rekognition monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: '2023-06-12T00:00:00.000Z' +translationType: machine +--- + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration Amazon Rekognition pour signaler vos données Rekognition à New Relic. Ici, nous expliquons comment activer notre intégration et quelles données peuvent être signalées. + +Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + +## Caractéristiques [#features] + +[Amazon Rekognition](https://aws.amazon.com/rekognition/) (Rekognition) est un service AWS permettant d'automatiser et de réduire le coût de votre reconnaissance d'images et de votre analyse vidéo grâce à l'apprentissage machine. Avec l'intégration Rekognition de New Relic, vous pourrez monitorer le nombre de requests, les temps de réponse, le nombre de visages détectés, et bien plus encore. Vous pourrez créer des graphiques personnalisés de vos données et [créer des conditions d'alerte](/docs/infrastructure/new-relic-infrastructure/infrastructure-alert-conditions/infrastructure-alerts-add-edit-or-view-host-alert-information) en fonction des modifications apportées aux Rekognition données ou configuration. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, découvrez comment [connecter les services AWS à New Relic](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream/#set-up-metric-stream). + +## Rechercher et utiliser des données [#find-data] + +Les données de cette intégration sont attachées au type de données métrique. Accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Metrics & Events** et filtrez par `aws.rekognition` pour trouver ces données dans l'UI. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) à l'aide de la table **Metric** et `namespace='AWS/Rekognition'`. + +Vous pouvez voir deux entités pour AWS Rekognition sur New Relic comme mentionné ci-dessous, une pour les projets personnalisés et une autre pour les opérations. + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Fournisseur +
+ Rekognition + + `cloudwatch-metric-streams` +
+ Opération Rekognition + + `cloudwatch-metric-streams` +
+ +Pour en savoir plus sur la recherche et l'utilisation des données d'intégration, consultez comment [comprendre les données d'intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration de New Relic Infrastructure collecte les données Amazon Rekognition suivantes : + + + Pour une description complète de chaque métrique, consultez [Rekognition Dimensions et Métriques d'Amazon](https://docs.aws.amazon.com/rekognition/latest/dg/rekognition-monitoring.html). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Type de données +
+ `SuccessfulRequestCount` + + entier/nombre +
+ `ThrottledCount` + + entier/nombre +
+ `ResponseTime` + + millisecondes +
+ `DetectedFaceCount` + + entier/nombre +
+ `DetectedLabelCount` + + entier/nombre +
+ `ServerErrorCount` + + entier/nombre +
+ `UserErrorCount` + + entier/nombre +
+ `MinInferenceUnits` + + entier/nombre +
+ `MaxInferenceUnits` + + entier/nombre +
+ `DesiredInferenceUnits` + + entier/nombre +
+ `InServiceInferenceUnits` + + entier/nombre +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-route-53-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-route-53-monitoring-integration.mdx new file mode 100644 index 00000000000..30bd6446385 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-route-53-monitoring-integration.mdx @@ -0,0 +1,129 @@ +--- +title: Intégration monitoring Amazon Route 53 +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon Route 53 monitoring integration: how to activate it and a description of the data reported.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données Amazon Route 53 à New Relic. Ce document explique comment activer l'intégration et décrit les données rapportées. + +## Caractéristiques [#features] + +[Amazon Route 53](https://aws.amazon.com/route53/) vous aide à enregistrer des noms de domaine, à acheminer le trafic Internet vers les ressources appropriées et à vérifier l'état de vos ressources pour vous assurer que votre application Web est toujours opérationnelle. + +Pour les contrôles d'intégrité AWS, Amazon Route 53 détermine si un ensemble d'enregistrements de ressources est sain en fonction de l'un des critères suivants : + +* En envoyant périodiquement une requête au point de terminaison spécifié dans le contrôle de santé +* En agrégeant le statut d'un groupe spécifié de contrôles de santé (contrôles de santé calculés) +* En déterminant l'état actuel d'une alarme CloudWatch (contrôles de santé des métriques CloudWatch) + +Les données transmises à New Relic incluent le temps de connexion, les contrôles de santé, le temps jusqu'au premier octet et d'autres [mesures](#metrics). Les données de la Route 53 sont disponibles en version pré-construite et vous pouvez également créer [des requêtes et des graphiques personnalisés](/docs/infrastructure/integrations-getting-started/getting-started/use-integration-data-new-relic-insights). + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration d'Amazon Route 53 : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration Route 53. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `HealthCheckSample`, avec une valeur `provider` de `Route53HealthCheck`. + +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +New Relic prend en charge les mesures de vérification de l'état de Route 53 suivantes. Pour plus de détails sur ces métriques, consultez [la documentation d'Amazon Route 53](http://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/r53-metricscollected_shared.html). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `ChildHealthCheckHealthyCount` + + Pour un contrôle d'intégrité calculé, le nombre de contrôles d'intégrité qui sont sains parmi les contrôles d'intégrité monitoring par Amazon Route 53. +
+ `ConnectionTime` + + Le temps moyen, en millisecondes, nécessaire aux vérificateurs d'intégrité d'Amazon Route 53 pour établir une connexion TCP avec le point de terminaison. Vous pouvez afficher `ConnectionTime` pour un contrôle de santé dans toutes les régions ou pour une région géographique sélectionnée. +
+ `HealthCheckPercentageHealthy` + + Pourcentage de vérificateurs d'état Amazon Route 53 qui considèrent que le point de terminaison sélectionné est sain. Vous ne pouvez afficher que `HealthCheckPercentageHealthy` dans toutes les régions ; les données ne sont pas disponibles pour une région sélectionnée. +
+ `HealthCheckStatus` + + L’état du point de terminaison de contrôle de l’état que CloudWatch vérifie. **1** indique sain et **0** indique malsain. Vous ne pouvez afficher que `HealthCheckStatus` pour toutes les régions ; les données ne sont pas disponibles pour une région sélectionnée. +
+ `SSLHandshakeTime` + + Le temps moyen, en millisecondes, qu'il a fallu aux vérificateurs de santé d'Amazon Route 53 pour terminer la négociation SSL. Vous pouvez afficher `SSLHandshakeTime` pour un contrôle de santé dans toutes les régions ou pour une région géographique sélectionnée. +
+ `TimeToFirstByte` + + Le temps moyen, en millisecondes, qu'il a fallu aux vérificateurs d'état Amazon Route 53 pour recevoir le premier octet de la réponse à une requête HTTP ou HTTPS. Vous pouvez afficher `TimeToFirstByte` pour un contrôle de santé dans toutes les régions ou pour une région géographique sélectionnée. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-route53-resolver-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-route53-resolver-monitoring-integration.mdx new file mode 100644 index 00000000000..81ad365ae16 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-route53-resolver-monitoring-integration.mdx @@ -0,0 +1,139 @@ +--- +title: Intégration monitoring du résolveur AWS Route53 +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS WAF monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données AWS Route53 Resolver à notre. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration d'AWS Route53 Resolver : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez une intégration. + +Les données sont jointes au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ point de terminaison + + `AwsRoute53ResolverEndpointSample` + + `AwsRoute53ResolverEndpoint` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données AWS Route53 Resolver pour le point de terminaison. + +### Données du point de terminaison du résolveur Route53 + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `inboundQueryVolume` + + Compter + + Pour le point de terminaison entrant, le nombre de requêtes DNS transmises de votre réseau à vos VPC via le point de terminaison spécifié par EndpointId. +
+ `outboundQueryVolume` + + Compter + + Pour le point de terminaison sortant, le nombre de requêtes DNS transmises depuis vos VPC vers votre réseau via le point de terminaison spécifié par EndpointId. +
+ `outboundQueryAggregatedVolume` + + Compter + + Pour le point de terminaison sortant, le nombre total de requêtes DNS transmises depuis Amazon VPC vers votre réseau. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-s3-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-s3-monitoring-integration.mdx new file mode 100644 index 00000000000..5a3803d47cc --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-s3-monitoring-integration.mdx @@ -0,0 +1,270 @@ +--- +title: Intégration monitoring Amazon S3 +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon S3 monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données Amazon S3 à New Relic. Ce document explique comment activer l'intégration et décrit les données rapportées. + +AWS déclare que [les métriques S3 CloudWatch sont fournies dans la mesure du possible](https://docs.aws.amazon.com/AmazonS3/latest/userguide/metrics-dimensions.html) et peuvent ne pas toujours être à jour. Si les métriques CloudWatch sont retardées de plus de 48 heures lors de la collecte, [New Relic ne peut pas les ingérer](https://docs.newrelic.com/docs/data-apis/ingest-apis/metric-api/metric-api-limits-restricted-attributes/). + +## Caractéristiques [#features] + +[Amazon Simple Storage Service](https://aws.amazon.com/s3) (Amazon S3) fournit aux développeurs et aux équipes informatiques un stockage cloud sécurisé, durable et hautement évolutif. + +Avec l'intégration Amazon S3 de New Relic, les données signalées incluent la taille du bucket S3, le nombre d'objets du bucket, les requêtes GET, requests POST et d'autres [métriques](#metrics). Les données S3 sont disponibles en pré-construits et vous pouvez également créer [des requêtes et des graphiques personnalisés](/docs/infrastructure/integrations-getting-started/getting-started/use-integration-data-new-relic-insights). Vous pouvez également créer une condition d'alerte pour vous avertir des modifications dans les données S3. + +## Activer l'intégration [#activate] + + + Les métriques [de demande et de transfert de données](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/configure-metrics.html) sont des métriques premium et payées séparément via AWS. Pour obtenir des informations sur les tarifs de CloudWatch, consultez la documentation [sur le monitoring amélioré S3](https://docs.aws.amazon.com/AmazonS3/latest/dev/cloudwatch-monitoring.html) d'Amazon. + + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration Amazon S3 : + +* Intervalle d'interrogation de New Relic : + + * Seaux S3 : 1 heure + * requests S3 : 5 minutes + +* Intervalle d'interrogation Amazon CloudWatch : + + * Seaux S3 : 24 heures + * requests S3 : 1 minute + +Notez que la modification de l’intervalle d’interrogation pour cette intégration n’affectera que la collecte de données pour les métriques de requête S3. + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration S3. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `DatastoreSample` , avec une valeur `provider` de `S3Bucket` ou `S3BucketRequests` si vous avez activé les métriques de demande et de transfert. + +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les métriques Amazon S3 suivantes. Pour plus de détails sur ces métriques, consultez [la documentation S3 d'Amazon](http://docs.aws.amazon.com/AmazonS3/latest/dev/cloudwatch-monitoring.html#s3-cloudwatch-metrics). + +### Données Amazon S3 pour les buckets [#provider-S3Bucket] + + + + + + + + + + + + + + + + + + + + + + + +
+ + **Metric** + + + + **Description** + +
+ `BucketSizeBytes` + + La quantité de données en octets stockées dans un compartiment, y compris le stockage standard, le stockage à redondance réduite, le stockage à accès peu fréquent (IAS), le stockage IAS à une zone et le stockage Glacier, y compris les frais généraux. +
+ `NumberOfObjects` + + Le nombre total d'objets stockés dans un bucket pour toutes les classes de stockage à l'exception de la classe de stockage `GLACIER` . +
+ +### Données Amazon S3 pour les métriques de requête [#provider-S3BucketRequests] + +Pour collecter ces métriques, vous devez activer les métriques de demande pour votre bucket S3 : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ + **Metric** + + + + **Description** + +
+ `AllRequests` + + Nombre total de requests HTTP effectuées sur un compartiment Amazon S3, quel que soit le type. Lorsque vous utilisez une configuration métrique avec un filtre, cette métrique compte uniquement requests HTTP provenant d'objets qui répondent aux exigences du filtre. Si vous créez plusieurs filtres métriques de compartiment, vous devez créer un filtre limité à tous les objets du compartiment, comme indiqué dans [ces instructions AWS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/configure-request-metrics-bucket.html). Notez que **only** ce filtre doit être étendu à tous les objets du bucket. +
+ `GetRequests` + + Nombre de requêtes HTTP GET effectuées pour les objets d'un compartiment Amazon S3. Cela n'inclut pas les opérations de liste. +
+ `PutRequests` + + Nombre de requests HTTP PUT effectuées pour les objets d'un compartiment Amazon S3. +
+ `DeleteRequests` + + Nombre de requests HTTP DELETE effectuées pour les objets d'un compartiment Amazon S3. Cela inclut également de [suppression de plusieurs objets](http://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html) requests. Cette mesure indique le nombre de requests et non le nombre d'objets supprimés. +
+ `HeadRequests` + + Le nombre de requests HTTP HEAD effectuées sur un compartiment Amazon S3. +
+ `PostRequests` + + Le nombre de requests HTTP POST effectuées sur un compartiment Amazon S3. +
+ `ListRequests` + + Le nombre de requests HTTP qui répertorient le contenu d'un bucket. +
+ `BytesDownloaded` + + Le nombre d'octets téléchargés pour requests adressées à un compartiment Amazon S3, où la réponse inclut un corps. + + Statistiques valides : moyenne (octets par requête), somme (octets par période), nombre d'échantillons, minimum, maximum +
+ `BytesUploaded` + + Le nombre d'octets téléchargés contenant un corps de requête, envoyé à un compartiment Amazon S3. + + Statistiques valides : moyenne (octets par requête), somme (octets par période), nombre d'échantillons, minimum, maximum +
+ `4xxErrors` + + Nombre de requests de code d'état d'erreur client HTTP 4xx adressées à un compartiment Amazon S3 avec une valeur de `0` ou `1`. La statistique `average` montre le taux d'erreur et la statistique `sum` montre le nombre de ce type d'erreur, pendant chaque période. + + Statistiques valides : Moyenne (rapports par demande), Somme (rapports par période), Min, Max, Nombre d'échantillons +
+ `5xxErrors` + + Nombre de requests de code d'état d'erreur du serveur HTTP 5xx adressées à un compartiment Amazon S3 avec une valeur de `0` ou `1`. La statistique `average`montre le taux d'erreur et la statistique `sum` montre le nombre de ce type d'erreur, pendant chaque période. + + Statistiques valides : Moyenne (rapports par demande), Somme (rapports par période), Min, Max, Nombre d'échantillons +
+ `FirstByteLatency` + + Le temps par demande, en millisecondes, à partir du moment où le bucket S3 a reçu une demande complète jusqu'au moment où la réponse a commencé à être renvoyée. + + Statistiques valides : moyenne, somme, minimum, maximum, nombre d'échantillons +
+ `TotalRequestLatency` + + Le temps écoulé par demande, en millisecondes, depuis le premier octet reçu jusqu'au dernier octet envoyé à un compartiment Amazon S3. Cela inclut le temps nécessaire pour recevoir le corps de la requête et envoyer le corps de la réponse, qui n'est pas inclus dans `FirstByteLatency`. + + Statistiques valides : moyenne, somme, minimum, maximum, nombre d'échantillons +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-s3-storagelens-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-s3-storagelens-monitoring-integration.mdx new file mode 100644 index 00000000000..c36d137ac88 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-s3-storagelens-monitoring-integration.mdx @@ -0,0 +1,42 @@ +--- +title: Intégration monitoring Amazon S3 Storage Lens +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon S3 Storage Lens monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données Amazon S3 à New Relic. Ce document explique comment activer l'intégration et décrit les données rapportées. + +## Caractéristiques [#features] + +[Amazon Simple Storage Service](https://aws.amazon.com/s3) (Amazon S3) fournit aux développeurs et aux équipes informatiques un stockage cloud sécurisé, durable et hautement évolutif. + +Avec l'intégration de l'objectif de stockage Amazon S3 de New Relic, les données signalées incluent la taille du bucket S3, le nombre d'objets du bucket, les requêtes GET, requests POST et d'autres [métriques](#metrics). Les données S3 sont disponibles en pré-construits, et vous pouvez également créer [des requêtes et des graphiques personnalisés](/docs/infrastructure/integrations-getting-started/getting-started/use-integration-data-new-relic-insights). Vous pouvez également créer une condition d'alerte pour vous avertir des modifications dans les données S3. + +## Activer l'intégration [#activate] + + + Les métriques [de demande et de transfert de données](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/configure-metrics.html) sont premium et payées séparément via AWS. Pour obtenir des informations sur les tarifs de CloudWatch, consultez la documentation [sur le monitoring amélioré S3](https://docs.aws.amazon.com/AmazonS3/latest/dev/cloudwatch-monitoring.html) d'Amazon. + + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration S3. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) dans l'explorateur métrique en recherchant `storagelens` dans la barre de recherche. + +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les métriques de l'objectif de stockage Amazon S3. Pour plus de détails sur ces métriques, consultez [la documentation S3 Storage Lens d'Amazon](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_basics_metrics_recommendations.html). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-security-lake-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-security-lake-monitoring-integration.mdx new file mode 100644 index 00000000000..66bcef1787f --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-security-lake-monitoring-integration.mdx @@ -0,0 +1,3213 @@ +--- +title: Intégration d'Amazon Security Lake +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'The New Relic Amazon Security Lake integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration pour AWS Security Lake, vous permettant d'envoyer vos données log de sécurité à New Relic. + +Collectez et envoyez des données télémétriques à New Relic depuis [Security Lake](https://aws.amazon.com/security-lake/) en utilisant notre intégration. Vous pouvez utiliser cette intégration pour monitorer vos services, interroger les données entrantes et créer un dashboard pour tout observer en un coup d'œil. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, configurez un redirecteur S3 de logs. Nous vous suggérons d'utiliser notre application de transfert sans serveur pour plus de simplicité et de commodité, mais vous pouvez également définir la vôtre. + + + Vous disposez de deux options pour configurer monitoring de Security Lake. Vous pouvez consolider plusieurs régions pour éviter de répéter les étapes, ou vous pouvez le configurer région par région. Pour plus de détails, voir [Gestion de plusieurs régions](https://docs.aws.amazon.com/security-lake/latest/userguide/manage-regions.html). + + +## Prérequis [#prerequisites] + +Avant d’activer cette intégration, assurez-vous d’abord que ces étapes sont effectuées pour Security Lake : + +1. Suivez les étapes mentionnées dans le [guide de démarrage](https://docs.aws.amazon.com/security-lake/latest/userguide/getting-started.html) d'Amazon Security Lake. +2. Complétez les conditions préalables à la configuration d'un abonné avec accès aux données en suivant les étapes du [guide de l'abonné Security Lake](https://docs.aws.amazon.com/security-lake/latest/userguide/subscriber-data-access.html#prereqs-creating-subscriber). + +## Étapes de configuration [#steps] + +Voici un aperçu des étapes que vous allez suivre : + +1. [Créer un abonné Security Lake](#create-subscriber). +2. [Installez notre redirecteur de logAmazon Security Lake dédié](#install-log-forwarder). +3. [Recherchez et utilisez vos données log ](#logs). + +## Créer un abonné à Security Lake [#create-subscriber] + +1. Accédez à la fonctionnalité Security Lake dans votre [AWS Console](console.aws.amazon.com/securitylake). + +2. Sélectionnez **Subscribers** et sélectionnez **Create Subscriber**. + +3. Donnez un nom à l'abonné et sélectionnez une région. + +4. Sélectionnez les sources log et d'événements que vous souhaitez envoyer à New Relic. + +5. Remplissez les détails restants comme décrit ci-dessous : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Champ + + Valeur +
+ `Data access method` + + S3 +
+ `Account ID` + + Insérez l'AWS `account ID` dans lequel vous prévoyez d'installer l'application sans serveur fournie par New Relic. +
+ `External ID` + + Insérez votre New Relic `AccountID`. Pour plus d'informations, voir [externalID](https://docs.aws.amazon.com/security-lake/latest/userguide/subscriber-data-access.html#subscriber-external-id) +
+ `Notification details` + + File d'attente SQS +
+ +6. Sélectionnez **Create**. + +7. Depuis la page **Subscriber details** , copiez vos ARN **AWS role ID** et **Subscription endpoint** . Vous en aurez besoin pour l'étape suivante. + +## Installez notre redirecteur de logAmazon Security Lake [#install-log-forwarder] + +Pour installer le redirecteur de log : + +1. Ouvrez le [référentiel d’applications AWS Serverless](https://serverlessrepo.aws.amazon.com/applications) dans votre navigateur. + AWS Lambda - Select region +2. Recherchez `newrelic` et vérifiez **Show apps that create custom IAM roles or resource policies** pour trouver le `newrelic-securitylake-s3-processor-LogForwarder`. +3. Cliquez sur les détails `newrelic-securitylake-s3-processor-LogForwarder` , puis sur **Deploy**. +4. Copiez/collez l’ARN `AWS role ID` de l’étape précédente dans le champ `SecurityLakeSubscriberRoleArn` . +5. Copiez/collez l’ARN `Subscription endpoint` de l’étape précédente dans le champ `SecurityLakeSubscriberRoleArn` . +6. Saisissez le `ExternalID` que vous avez ajouté à l’étape précédente. +7. Saisissez votre dans le champ `NRLicenseKey` . +8. Reconnaissez et sélectionnez **Deploy**. + +Pour plus de détails à ce sujet, consultez [notre documentation sur le redirecteur de logAmazon Security Lake](/docs/logs/forward-logs/aws-lambda-sending-security-logs-s3). + +## Rechercher et utiliser les données du log [#logs] + +Pour trouver votre log sur New Relic, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Logs** et définissez **Attributes** sur `product.name`, puis choisissez la source log souhaitée. + +Les sources log suivantes sont actuellement prises en charge : + +* [ROUTE 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/logging-monitoring.html) +* [FLUX VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) +* [PISTE DE NUAGES](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-getting-started.html) +* [CENTRE DE SÉCURITÉ](https://docs.aws.amazon.com/securityhub/latest/userguide/what-is-securityhub.html) + + + Amazon Security Lake utilise le [schéma OCSF](https://schema.ocsf.io/) pour son log. + + +Voici les attributs que vous pouvez trouver dans le log de Security Lake : + + + + Requête `Amazon VPC` log pour afficher les données pour l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description + + Type de données +
+ `activity_id` + + identifiant d'activité + + entier +
+ `activity_name` + + nom de l'activité + + chaîne +
+ `aws.invoked_function_arn` + + ARN de la fonction de transfert log invoquée + + chaîne +
+ `aws.s3_bucket_name` + + nom du bucket S3 à partir duquel le log a été transféré + + chaîne +
+ `aws.s3_key` + + enregistrement clé de l'événement de sécurité à partir du logde flux + + chaîne +
+ `category_name` + + nom de la catégorie du log + + chaîne +
+ `category_uid` + + ID unique de la catégorie + + entier +
+ `class_name` + + nom de la classe log + + chaîne +
+ `class_uid` + + ID unique de la classe + + entier +
+ `cloud.account_uid` + + Compte AWS d'où provient le log de flux + + chaîne +
+ `cloud.provider` + + affiche le nom du fournisseur de cloud - dans ce cas `AWS` + + chaîne +
+ `cloud.region` + + Région AWS d'où provient le log de flux + + chaîne +
+ `cloud.zone` + + Zone AWS d'où provient le log de flux + + chaîne +
+ `connection_info.boundary` + + limite du logde flux + + chaîne +
+ `connection_info.boundary_id` + + ID de la limite + + entier +
+ `connection_info.direction` + + indique si la connexion était entrante ou sortante + + chaîne +
+ `connection_info.direction_id` + + ID de la direction + + entier +
+ `connection_info.protocol_num` + + numéro de protocole du flux + + entier +
+ `connection_info.protocol_ver` + + version du protocole + + chaîne +
+ `connection_info.tcp_flags` + + Drapeaux TCP + + entier +
+ `dst_endpoint.instance_uid` + + ID d'instance de la destination + + chaîne +
+ `dst_endpoint.interface_uid` + + ID d'interface de la destination + + chaîne +
+ `dst_endpoint.intermediate_ips` + + adresses IP intermédiaires de la destination + + chaîne +
+ `dst_endpoint.ip` + + Adresse IP de la destination + + chaîne +
+ `dst_endpoint.port` + + port de destination + + entier +
+ `dst_endpoint.subnet_uid` + + ID de sous-réseau de la destination + + chaîne +
+ `dst_endpoint.svc_name` + + nom du service de destination + + chaîne +
+ `dst_endpoint.vpc_uid` + + ID VPC de la destination + + chaîne +
+ `end_time` + + heure de fin du flux + + entier +
+ `logtype` + + définit le logtype + + chaîne +
+ `metadata.product.feature.name` + + nom de la fonctionnalité d'où provient le log + + chaîne +
+ `metadata.product.name` + + nom du produit d'où provient la log + + chaîne +
+ `metadata.product.vendor_name` + + nom du vendeur du log; dans ce cas `AWS` + + chaîne +
+ `metadata.product.version` + + nom de la version du produit + + chaîne +
+ `metadata.profiles` + + noms des profils + + chaîne +
+ `metadata.version` + + version des métadonnées + + chaîne +
+ `newrelic.source` + + source du log dans New Relic + + chaîne +
+ `plugin.type` + + type de plugin utilisé + + chaîne +
+ `plugin.version` + + version du plugin utilisé + + chaîne +
+ `severity` + + niveau de gravité de la découverte log + + chaîne +
+ `severity_id` + + ID du niveau de gravité + + entier +
+ `src_endpoint.instance_uid` + + ID d'instance de la source + + chaîne +
+ `src_endpoint.interface_uid` + + ID d'interface de la source + + chaîne +
+ `src_endpoint.intermediate_ips` + + adresses IP intermédiaires de la source + + chaîne +
+ `src_endpoint.ip` + + Adresse IP de la source + + chaîne +
+ `src_endpoint.port` + + port de la source + + entier +
+ `src_endpoint.subnet_uid` + + ID de sous-réseau de la source + + chaîne +
+ `src_endpoint.svc_name` + + nom du service de la source + + chaîne +
+ `src_endpoint.vpc_uid` + + ID VPC de la source + + chaîne +
+ `start_time` + + heure de début + + entier +
+ `time` + + heure de début + + entier +
+ `timestamp` + + heure à laquelle le log a atteint New Relic + + entier +
+ `traffic.bytes` + + quantité d'octets envoyés ou reçus + + entier +
+ `traffic.packets` + + quantité de paquets envoyés ou reçus + + entier +
+ `type_name` + + nom du type d'événement + + chaîne +
+ `type_uid` + + ID du type d'événement + + entier +
+ `unmapped` + + données non analysées non mappées à un champ + + chaîne +
+
+ + + Requête `CloudTrail` log pour afficher les données pour l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description + + Type de données +
+ `activity_id` + + identifiant d'activité + + entier +
+ `activity_name` + + nom de l'activité + + chaîne +
+ `api.operation` + + fonctionnement de l'activité API + + chaîne +
+ `api.request.uid` + + ID unique de la requête API + + chaîne +
+ `api.response.error` + + réponse d'erreur de la requête API + + chaîne +
+ `api.response.message` + + message de la réponse de l'API + + chaîne +
+ `api.service.name` + + nom du service d'où provient la demande + + chaîne +
+ `api.version` + + Version de l'API + + chaîne +
+ `aws.invoked_function_arn` + + ARN de la fonction de transfert log invoquée + + chaîne +
+ `aws.s3_bucket_name` + + nom du bucket S3 à partir duquel le log a été transféré + + chaîne +
+ `aws.s3_key` + + enregistrement clé de l'événement de sécurité à partir du logde flux + + chaîne +
+ `category_name` + + nom de la catégorie du log + + chaîne +
+ `category_uid` + + ID unique de la catégorie + + entier +
+ `class_name` + + nom de la classe log + + chaîne +
+ `class_uid` + + ID unique de la classe + + entier +
+ `cloud.provider` + + affiche le nom du fournisseur de cloud - dans ce cas `AWS` + + chaîne +
+ `cloud.region` + + Région AWS d'où provient le log de flux + + chaîne +
+ `http_request.user_agent` + + agent utilisateur de la requête HTTP + + chaîne +
+ `identity.idp.name` + + Nom IDP du demandeur + + chaîne +
+ `identity.invoked_by` + + nom de la fonctionnalité invoquant la requête + + chaîne +
+ `identity.session.created_time` + + heure de création de la session + + entier +
+ `identity.session.issuer` + + ARN de l'émetteur + + chaîne +
+ `identity.session.mfa` + + MFA activé + + booléen +
+ `identity.user.account_uid` + + Compte AWS de l'utilisateur + + chaîne +
+ `identity.user.credential_uid` + + identifiant d'identification de l'utilisateur + + chaîne +
+ `identity.user.name` + + nom de l'utilisateur + + chaîne +
+ `identity.user.type` + + type d'utilisateur + + chaîne +
+ `identity.user.uid` + + ID de l'utilisateur + + chaîne +
+ `identity.user.uuid` + + ARN de l'utilisateur + + chaîne +
+ `logtype` + + définit le logtype + + chaîne +
+ `metadata.product.feature.name` + + nom de la fonctionnalité d'où provient le log + + chaîne +
+ `metadata.product.name` + + nom du produit d'où provient la log + + chaîne +
+ `metadata.product.vendor_name` + + nom du vendeur du log; dans ce cas `AWS` + + chaîne +
+ `metadata.product.version` + + nom de la version du produit + + chaîne +
+ `metadata.profiles` + + noms des profils + + chaîne +
+ `metadata.version` + + version des métadonnées + + chaîne +
+ `newrelic.source` + + source du log dans New Relic + + chaîne +
+ `plugin.type` + + type de plugin utilisé + + chaîne +
+ `plugin.version` + + version du plugin utilisé + + chaîne +
+ `ref_event_uid` + + ID unique pour l'événement de référence + + chaîne +
+ `resources` + + ressources + + chaîne +
+ `severity` + + niveau de gravité de la découverte log + + chaîne +
+ `severity_id` + + ID du niveau de gravité + + entier +
+ `src_endpoint.domain` + + domaine de la source + + chaîne +
+ `src_endpoint.ip` + + Adresse IP de la source + + chaîne +
+ `src_endpoint.uid` + + ID unique de la source + + chaîne +
+ `time` + + heure de début + + entier +
+ `timestamp` + + heure à laquelle le log a atteint New Relic + + entier +
+ `type_name` + + nom du type d'événement + + chaîne +
+ `type_uid` + + ID du type d'événement + + entier +
+ `unmapped` + + données non analysées non mappées à un champ + + chaîne +
+
+ + + Requête `Security Hub` log pour afficher les données pour l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description + + Type de données +
+ `activity_id` + + identifiant d'activité + + entier +
+ `activity_name` + + nom de l'activité + + chaîne +
+ `answers` + + réponses + + chaîne +
+ `aws.invoked_function_arn` + + ARN de la fonction de transfert log invoquée + + chaîne +
+ `aws.s3_bucket_name` + + nom du bucket S3 à partir duquel le log a été transféré + + chaîne +
+ `aws.s3_key` + + enregistrement clé de l'événement de sécurité à partir du logde flux + + chaîne +
+ `category_name` + + nom de la catégorie du log + + chaîne +
+ `category_uid` + + ID unique de la catégorie + + entier +
+ `class_name` + + nom de la classe log + + chaîne +
+ `class_uid` + + ID unique de la classe + + entier +
+ `cloud.account_uid` + + ID du compte AWS + + chaîne +
+ `cloud.provider` + + affiche le nom du fournisseur de cloud - dans ce cas `AWS` + + chaîne +
+ `cloud.region` + + Région AWS d'où provient le log de flux + + chaîne +
+ `connection_info.direction` + + sens de la connexion + + chaîne +
+ `connection_info.direction_id` + + ID pour la direction de la connexion + + entier +
+ `connection_info.protocol_name` + + protocole de la connexion + + chaîne +
+ `dst_endpoint.instance_uid` + + ID de destination de l'nstance + + chaîne +
+ `dst_endpoint.interface_uid` + + ID de l'interface de destination + + chaîne +
+ `logtype` + + définit le logtype + + chaîne +
+ `metadata.product.feature.name` + + nom de la fonctionnalité d'où provient le log + + chaîne +
+ `metadata.product.name` + + nom du produit d'où provient la log + + chaîne +
+ `metadata.product.vendor_name` + + nom du vendeur du log; dans ce cas `AWS` + + chaîne +
+ `metadata.product.version` + + nom de la version du produit + + chaîne +
+ `metadata.profiles` + + noms des profils + + chaîne +
+ `metadata.version` + + version des métadonnées + + chaîne +
+ `newrelic.source` + + source du log dans New Relic + + chaîne +
+ `plugin.type` + + type de plugin utilisé + + chaîne +
+ `plugin.version` + + version du plugin utilisé + + chaîne +
+ `query.class` + + Classe de requête + + chaîne +
+ `query.hostname` + + demande nom d'hôte + + chaîne +
+ `query.type` + + type de requête + + chaîne +
+ `rcode` + + code de réponse + + chaîne +
+ `rcode` + + ID du code de réponse + + entier +
+ `severity` + + niveau de gravité de la découverte log + + chaîne +
+ `severity_id` + + ID du niveau de gravité + + entier +
+ `src_endpoint.instance_uid` + + ID d'instance de la source + + chaîne +
+ `src_endpoint.ip` + + Adresse IP de la source + + chaîne +
+ `src_endpoint.port` + + port de la source + + entier +
+ `src_endpoint.vpc_uid` + + ID VPC de la source + + chaîne +
+ `time` + + heure de début + + entier +
+ `timestamp` + + heure à laquelle le log a atteint New Relic + + entier +
+ `type_name` + + nom du type d'événement + + chaîne +
+ `type_uid` + + ID du type d'événement + + entier +
+ `unmapped` + + données non analysées non mappées à un champ + + chaîne +
+
+ + + Requête `Route 53` log pour afficher les données pour l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description + + Type de données +
+ `activity_id` + + identifiant d'activité + + entier +
+ `activity_name` + + nom de l'activité + + chaîne +
+ `aws.invoked_function_arn` + + ARN de la fonction de transfert log invoquée + + chaîne +
+ `aws.s3_bucket_name` + + nom du bucket S3 à partir duquel le log a été transféré + + chaîne +
+ `aws.s3_key` + + enregistrement clé de l'événement de sécurité à partir du logde flux + + chaîne +
+ `category_name` + + nom de la catégorie du log + + chaîne +
+ `category_uid` + + ID unique de la catégorie + + entier +
+ `class_name` + + nom de la classe log + + chaîne +
+ `class_uid` + + ID unique de la classe + + entier +
+ `cloud.account_uid` + + ID du compte AWS + + chaîne +
+ `cloud.provider` + + affiche le nom du fournisseur de cloud - dans ce cas `AWS` + + chaîne +
+ `cloud.region` + + Région AWS d'où provient le log de flux + + chaîne +
+ `compliance.requirements` + + exigences de conformité + + chaîne +
+ `compliance.status` + + état de conformité + + chaîne +
+ `compliance.status_detail` + + détails sur l'état de conformité + + chaîne +
+ `confidence` + + confiance + + chaîne +
+ `finding.created_time` + + heure de création de la découverte + + entier +
+ `finding.desc` + + description de la découverte + + chaîne +
+ `finding.first_seen_time` + + heure à laquelle la découverte a été vue pour la première fois + + entier +
+ `finding.last_seen_time` + + heure à laquelle la découverte a été vue pour la dernière fois + + entier +
+ `finding.first_seen_time` + + heure à laquelle la découverte a été vue pour la première fois + + chaîne +
+ `finding.modified_time` + + moment où la constatation a été modifiée + + entier +
+ `finding.related_events` + + événement lié à la découverte + + chaîne +
+ `finding.remediation.desc` + + informations sur la remédiation à apporter à la constatation + + chaîne +
+ `finding.remediation.kb_articles` + + articles de la base de connaissances sur la remédiation des résultats + + chaîne +
+ `finding.src_url` + + URL de la source de la découverte + + chaîne +
+ `finding.title` + + titre de la découverte + + chaîne +
+ `finding.types` + + liste des types relatifs à la constatation + + chaîne +
+ `finding.uid` + + ARN de la découverte + + chaîne +
+ `logtype` + + définit le logtype + + chaîne +
+ `malware` + + logiciel malveillant + + chaîne +
+ `metadata.product.feature.name` + + nom de la fonctionnalité d'où provient le log + + chaîne +
+ `metadata.product.name` + + nom du produit d'où provient la log + + chaîne +
+ `metadata.product.vendor_name` + + nom du vendeur du log; dans ce cas `AWS` + + chaîne +
+ `metadata.product.version` + + nom de la version du produit + + chaîne +
+ `metadata.profiles` + + noms des profils + + chaîne +
+ `metadata.version` + + version des métadonnées + + chaîne +
+ `newrelic.source` + + source du log dans New Relic + + chaîne +
+ `plugin.type` + + type de plugin utilisé + + chaîne +
+ `plugin.version` + + version du plugin utilisé + + chaîne +
+ `process.created_time` + + temps de création du processus + + chaîne +
+ `process.file.name` + + nom du fichier de processus + + chaîne +
+ `process.file.path` + + chemin du fichier de processus + + chaîne +
+ `process.file.type_id` + + ID du type de fichier de processus + + entier +
+ `process.name` + + nom du processus + + chaîne +
+ `process.parent_process.pid` + + ID de processus du processus parent + + chaîne +
+ `process.pid` + + ID de processus + + chaîne +
+ `process.terminated_time` + + heure de fin du processus + + chaîne +
+ `resources` + + ressources + + chaîne +
+ `severity` + + niveau de gravité de la découverte log + + chaîne +
+ `severity_id` + + ID du niveau de gravité + + entier +
+ `state` + + état de la constatation + + chaîne +
+ `state_id` + + ID d'état de la découverte + + chaîne +
+ `time` + + heure de début + + entier +
+ `timestamp` + + heure à laquelle le log a atteint New Relic + + entier +
+ `type_name` + + nom du type d'événement + + chaîne +
+ `type_uid` + + ID du type d'événement + + entier +
+ `unmapped` + + données non analysées non mappées à un champ + + chaîne +
+ `vulnerabilities` + + vulnérabilités + + chaîne +
+
+
+ +## Comment utiliser vos données + +Pour en savoir plus sur l'utilisation de vos données, consultez [Comprendre les données d'intégration](/docs/infrastructure/infrastructure-integrations/get-started/understand-use-data-infrastructure-integrations/). + +## Alertes + +Vous pouvez configurer pour qu'il vous avertisse des modifications importantes. Par exemple, une alerte peut être configurée pour informer les parties concernées des erreurs critiques ou fatales. + +En savoir plus sur [la création d'alertes](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). + +## Autres intégrations AWS + +En savoir plus sur l'intégration de New Relic AWS : + +* [monitoringde la route 53](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-route-53-monitoring-integration/) +* [Monitoring du log de flux VPC](/docs/network-performance-monitoring/setup-performance-monitoring/cloud-flow-logs/aws-vpc-flow-log-monitoring/) +* [monitoringde CloudTrail](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-cloudtrail-monitoring-integration/) +* [Log d'ingestion depuis S3](/docs/logs/forward-logs/aws-lambda-sending-logs-s3/) \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-simple-email-service-ses-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-simple-email-service-ses-monitoring-integration.mdx new file mode 100644 index 00000000000..2a7d5e7e484 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-simple-email-service-ses-monitoring-integration.mdx @@ -0,0 +1,118 @@ +--- +title: Intégration monitoring Amazon SES +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon Simple Email Service (SES) monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[Amazon Simple Email Service (SES)](https://aws.amazon.com/ses/) est un service basé sur le cloud pour l'envoi et la réception d'e-mails. Grâce à l'intégration de New Relic avec Amazon SES, vous pouvez collecter des métriques et des options de configuration liées aux e-mails envoyés et reçus. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration Amazon SES : + +* Intervalle d'interrogation de New Relic : résolution de 1 minute + +## Rechercher et utiliser des données [#find-data] + +Après avoir [connecté votre intégration AWS](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure), New Relic commencera monitoring vos données AWS. Pour [rechercher et utiliser vos données](/docs/infrastructure/integrations/find-use-infrastructure-integration-data), y compris les liens vers vos et les paramètres d'alerte : accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l'intégration. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) à l'aide de ces événements : + +* `SesConfigurationSetSample` +* `SesReceiptSample` +* `SesRegionSample` + +## données métriques [#metrics] + +Cette intégration New Relic collecte les données Amazon SES suivantes. Pour des descriptions complètes de certaines de ces métriques, consultez [les métriques et dimensions SNS d'Amazon](http://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/sns-metricscollected.html). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `bounce` + + Le nombre d'e-mails définitivement rejetés par le serveur de messagerie d'un destinataire. +
+ `click` + + Le nombre de fois que le destinataire a cliqué sur un lien dans un e-mail HTML. +
+ `complaint` + + Le nombre de fois que le destinataire a marqué un e-mail comme spam. +
+ `delivery` + + Le nombre d'e-mails livrés avec succès au serveur de messagerie du destinataire. +
+ `open` + + Le nombre de fois qu'un destinataire a ouvert un e-mail HTML. +
+ `send` + + Le nombre d'e-mails tentés d'être envoyés. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-sns-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-sns-monitoring-integration.mdx new file mode 100644 index 00000000000..55880c64358 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-sns-monitoring-integration.mdx @@ -0,0 +1,140 @@ +--- +title: Intégration AWS SNS monitoring +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Simple Notification Service (SNS) monitoring integration: How to activate it and a description of the data reported.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[Notre intégration infrastructure ](/docs/infrastructure/introduction-infra-monitoring)comprend une intégration pour signaler vos données Amazon Web Services Simple Notification Service (SNS) à New Relic. Ce document explique comment activer l'intégration et décrit les données rapportées. + +## Caractéristiques [#features] + +[AWS Simple Notification Service (SNS)](https://aws.amazon.com/sns/) est un service notification push géré. Avec l'intégration AWS SNS de New Relic, les données signalées à New Relic incluent : + +* Nombre de messages envoyés et échoués +* abonnement confirmé et supprimé +* [Métriques](#metrics)supplémentaires + +Les données SNS sont disponibles dans la version pré-intégrée de New Relic. Vous pouvez également créer [des requêtes et des graphiques personnalisés](/docs/infrastructure/integrations-getting-started/getting-started/use-integration-data-new-relic-insights), et créer [une condition d'alerte](/docs/infrastructure/new-relic-infrastructure/infrastructure-alert-conditions/infrastructure-alerts-add-edit-or-view-host-alert-information) pour vous informer des modifications des données SNS . + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). Les informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration AWS SNS incluent : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données AWS SNS : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour explorer vos [données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data): + +1. Allez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**. +2. Sélectionnez l’un des liens d’intégration SNS disponibles. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `QueueSample`, avec une valeur `provider` de `SnsTopic`. + +## données métriques [#metrics] + +Cette intégration collecte les métriques suivantes. Pour des descriptions complètes de certaines de ces métriques, consultez [les métriques et dimensions SNS d'AWS](http://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/sns-metricscollected.html). + + + Les métriques indiquées par un astérisque `*` ne sont récupérées que si [la collecte d'inventaire étendue](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations#extended) est activée. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `numberOfMessagesPublished` + + Le nombre de messages publiés. +
+ `numberOfNotificationsDelivered` + + Le nombre de messages livrés avec succès. +
+ `numberOfNotificationsFailed` + + Le nombre de messages qu'Amazon SNS n'a pas réussi à livrer. Pour plus d'informations, consultez [les métriques Amazon SNS](http://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/sns-metricscollected.html). +
+ `publishSize` + + La taille (en octets) des messages publiés comprend le minimum, le maximum, la moyenne et le nombre. +
+ `SubscriptionsPending`\* + + Le nombre d'abonnement en attente de confirmation sur ce sujet. +
+ `SubscriptionsConfirmed`\* + + Le nombre d'abonnements confirmés sur ce sujet. +
+ `SubscriptionsDeleted`\* + + Le nombre d'abonnements supprimés sur ce sujet. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-step-functions-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-step-functions-monitoring-integration.mdx new file mode 100644 index 00000000000..95951a7f449 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-step-functions-monitoring-integration.mdx @@ -0,0 +1,837 @@ +--- +title: Intégration monitoring AWS Step Functions +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS Step Functions monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +New Relic propose une intégration pour générer des rapports sur vos données AWS Step Functions. Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration d'AWS Step Functions : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez une intégration. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Machine d'État + + `AwsStatesStateMachineSample` + + `AwsStatesStateMachine` +
+ Activité + + `AwsStatesActivitySample` + + `AwsStatesActivity` +
+ Fonction Lambda + + `AwsStatesLambdaFunctionSample` + + `AwsStatesLambdaFunction` +
+ Intégration de services + + `AwsStatesServiceIntegrationSample` + + `AwsStatesServiceIntegration` +
+ Service + + `AwsStatesServiceSample` + + `AwsStatesService` +
+ Utilisation de l'API + + `AwsStatesApiUsageSample` + + `AwsStatesApiUsage` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données AWS Step Functions pour StateMachine, Activity, LambdaFunction, ServiceIntegration, Service et ApiUsage. + +### Fonctions d'étape Données de la machine d'état + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `ExecutionTime` + + Millisecondes + + L'intervalle, en millisecondes, entre le moment où l'exécution démarre et le moment où elle se termine. +
+ `ExecutionThrottled` + + Compter + + Le nombre d'événements StateEntered et de nouvelles tentatives qui ont été limités. Ceci est lié à la limitation de StateTransition. +
+ `ExecutionsAborted` + + Compter + + Le nombre d'exécutions interrompues ou terminées. +
+ `ExecutionsFailed` + + Compter + + Le nombre d'exécutions échouées. +
+ `ExecutionsStarted` + + Compter + + Le nombre d'exécutions commencées. +
+ `ExecutionsSucceeded` + + Compter + + Le nombre d'exécutions terminées avec succès. +
+ `ExecutionsTimedOut` + + Compter + + Le nombre d'exécutions qui expirent pour une raison quelconque. +
+ +### Données d'activité des fonctions d'étape + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `ActivityRunTime` + + Millisecondes + + L'intervalle, en millisecondes, entre le moment où l'activité démarre et le moment où elle se termine. +
+ `ActivityScheduleTime` + + Millisecondes + + L'intervalle, en millisecondes, pendant lequel l'activité reste dans l'état planifié. +
+ `ActivityTime` + + Millisecondes + + L'intervalle, en millisecondes, entre le moment où l'activité est planifiée et le moment où elle se ferme. +
+ `ActivitiesFailed` + + Compter + + Le nombre d'activités ayant échoué. +
+ `ActivitiesHeartbeatTimedOut` + + Compter + + Le nombre d'activités qui expirent en raison d'un dépassement de délai de pulsation. +
+ `ActivitiesScheduled` + + Compter + + Le nombre d'activités programmées. +
+ `ActivitiesStarted` + + Compter + + Le nombre d'activités démarrées. +
+ `ActivitiesSucceeded` + + Compter + + Le nombre d’activités réalisées avec succès. +
+ `ActivitiesTimedOut` + + Compter + + Le nombre d'activités qui expirent à la fermeture. +
+ +### Fonctions d'étape Données de la fonction Lambda + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `LambdaFunctionRunTime` + + Millisecondes + + L'intervalle, en millisecondes, entre le moment où la fonction Lambda démarre et le moment où elle se ferme. +
+ `LambdaFunctionScheduleTime` + + Millisecondes + + L'intervalle, en millisecondes, pendant lequel la fonction Lambda reste dans l'état de planification. +
+ `LambdaFunctionTime` + + Millisecondes + + L'intervalle, en millisecondes, entre le moment où la fonction Lambda est planifiée et le moment où elle se ferme. +
+ `LambdaFunctionsFailed` + + Compter + + Le nombre de fonctions Lambda ayant échoué. +
+ `LambdaFunctionsScheduled` + + Compter + + Le nombre de fonctions planifiées Lambda. +
+ `LambdaFunctionsStarted` + + Compter + + Le nombre de fonctions Lambda démarrées. +
+ `LambdaFunctionsSucceeded` + + Compter + + Le nombre de fonctions Lambda exécutées avec succès. +
+ `LambdaFunctionsTimedOut` + + Compter + + Le nombre de fonctions Lambda qui expirent à la fermeture. +
+ +### Données d'intégration de services Step Functions + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `ServiceIntegrationRunTime` + + Millisecondes + + L'intervalle, en millisecondes, entre le moment où la tâche de service démarre et le moment où elle se ferme. +
+ `ServiceIntegrationScheduleTime` + + Millisecondes + + L'intervalle, en millisecondes, pendant lequel la tâche de service reste dans l'état de planification. +
+ `ServiceIntegrationTime` + + Millisecondes + + L'intervalle, en millisecondes, entre le moment où la tâche de service est planifiée et le moment où elle se ferme. +
+ `ServiceIntegrationsFailed` + + Compter + + Le nombre de tâches de service ayant échoué. +
+ `ServiceIntegrationsScheduled` + + Compter + + Le nombre de tâches de service planifiées. +
+ `ServiceIntegrationsStarted` + + Compter + + Le nombre de tâches de service démarrées. +
+ `ServiceIntegrationsSucceeded` + + Compter + + Le nombre de tâches de service terminées avec succès. +
+ `ServiceIntegrationsTimedOut` + + Compter + + Le nombre de tâches de service qui expirent à la fermeture. +
+ +### Données de service des fonctions d'étape + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `ThrottledEvents` + + Compter + + Le nombre de requests qui ont été limitées. +
+ `ProvisionedBucketSize` + + Compter + + Le nombre de requests disponibles par seconde. +
+ `ProvisionedRefillRate` + + Compter + + Le nombre de requests par seconde autorisées dans le bucket. +
+ `ConsumedCapacity` + + Compter + + Le nombre de requests par seconde. +
+ +### Fonctions d'étape ApiUtilisation des données + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `ThrottledEvents` + + Compter + + Le nombre de requests qui ont été limitées. +
+ `ProvisionedBucketSize` + + Compter + + Le nombre de requests disponibles par seconde. +
+ `ProvisionedRefillRate` + + Compter + + Le nombre de requests par seconde autorisées dans le bucket. +
+ `ConsumedCapacity` + + Compter + + Le nombre de requests par seconde. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-storage-gateway-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-storage-gateway-integration.mdx new file mode 100644 index 00000000000..f2b90d8317d --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-storage-gateway-integration.mdx @@ -0,0 +1,508 @@ +--- +title: Intégration AWS Storage Gateway Métriques +metaDescription: 'New Relic''s AWS Storage Gateway integration: what data it reports and how to enable it.' +freshnessValidatedDate: '2024-03-08T00:00:00.000Z' +translationType: machine +--- + +L’intégration de New Relic Infrastructure inclut désormais une intégration qui envoie vos métriques AWS Storage Gateway à New Relic. L'intégration AWS Storage Gateway Métriques collecte et envoie des données télémétriques à New Relic depuis votre AWS Storage Gateway. Vous pouvez monitorer vos services AWS, interroger les données entrantes et créer un dashboard pour tout observer en un coup d'œil. + +## Activer l'intégration [#activate-ingration] + +Pour activer cette intégration, suivez les instructions de notre [documentation d'intégration Amazon flux de métriques CloudWatch ](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup/). + +## Rechercher et utiliser des données [#find-data] + +Pour trouver les métriques de votre intégration : + +1. Accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities)** +2. Sélectionnez **Metrics and events** +3. Filtrer par `aws.storagegateway`. + +## données métriques [#metrics] + +Cette intégration de New Relic Infrastructure collecte les métriques AWS Storage Gateway suivantes : + +### Dimensions de la passerelle de stockage AWS + + + + + + + + + + + + + + + + + +
+ Dimension + + Description +
+ `GatewayId, GatewayName` + + Ces dimensions filtrent les données que vous demandez selon des métriques spécifiques à la passerelle. +
+ +### Données métriques AWS Storage Gateway [#storage-gateway-metric-data] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique (min, max, moyenne, compte, somme) + + Unité + + Description +
+ `AvailabilityNotifications` + + Compter + + Cette mesure indique le nombre de notifications d'intégrité liées à la disponibilité qui ont été générées par la passerelle au cours de la période de rapport. +
+ `HealthNotifications` + + Compter + + Cette mesure indique le nombre de notifications de santé générées par cette passerelle au cours de la période de rapport. +
+ `FileSharesUnavailable` + + Somme + + Cette métrique fournit le nombre de partages de fichiers sur ces passerelles qui sont dans l'état indisponible. +
+ `WorkingStoragePercentUsed` + + Moyenne + + Pourcentage d'utilisation du tampon de téléchargement de la passerelle. +
+ `UserCpuPercent` + + Compter + + Pourcentage du temps CPU consacré au traitement de la passerelle, en moyenne sur tous les cœurs +
+ `UploadBufferPercentUsed` + + Moyenne + + Pourcentage d'utilisation du tampon de téléchargement de la passerelle. +
+ `CloudBytesUploaded` + + Compter + + Le nombre d'octets téléchargés depuis le cloud vers le volume. +
+ `CloudBytesDownloaded` + + Compter + + Le nombre d'octets téléchargés depuis le cloud vers le volume. +
+ `ReadTime` + + Somme + + Nombre total de millisecondes consacrées aux opérations de lecture à partir de vos applications locales au cours de la période de rapport. +
+ `WriteTime` + + Somme + + Le nombre total de millisecondes consacrées aux opérations d'écriture à partir de vos applications sur site au cours de la période de rapport +
+ `QueuedWrites` + + Moyenne + + Nombre d'octets en attente d'écriture sur AWS, échantillonnés à la fin de la période de rapport pour tous les volumes de la passerelle. Ces octets sont conservés dans la mémoire de travail de votre passerelle. +
+ `ReadBytes` + + Somme + + Le nombre total d’octets lus à partir de vos applications sur site au cours de la période de rapport. +
+ `WriteBytes` + + Somme + + Le nombre total d’octets écrits dans vos applications sur site au cours de la période de rapport. +
+ `FilesFailingUpload` + + Somme + + Cette métrique suit le nombre de fichiers qui ne parviennent pas à être téléchargés sur AWS. Ces fichiers généreront des notifications de santé contenant plus d’informations sur le problème. +
+ `SmbV1Sessions` + + Compter + + Cette métrique indique le nombre de sessions SMBv1 actives sur la passerelle +
+ `SmbV2Sessions` + + Compter + + Cette métrique indique le nombre de sessions SMBv2 actives sur la passerelle. +
+ `SmbV3Sessions` + + Compter + + Cette métrique indique le nombre de sessions SMBv3 actives sur la passerelle. +
+ `WorkingStorageFree` + + Octets + + La quantité totale d'espace inutilisé dans le stockage de travail de la passerelle. +
+ `WorkingStorageUsed` + + Somme + + Le nombre total d'octets utilisés dans le tampon de téléchargement de la passerelle. +
+ `TotalCacheSize` + + Moyenne + + Cette métrique indique la taille totale du cache. +
+ `CacheFileSize` + + Max + + Cette métrique suit la taille des fichiers dans le cache de la passerelle. +
+ `CacheDirectorySize` + + Max + + Cette métrique suit la taille des dossiers dans le cache de la passerelle. La taille du dossier est déterminée par le nombre de fichiers et de sous-dossiers dans son premier niveau, cela ne compte pas de manière récursive dans les sous-dossiers. +
+ `CacheFree` + + Somme + + Cette métrique indique le nombre d'octets disponibles dans le cache de la passerelle. +
+ `CacheUsed` + + Somme + + Cette métrique indique le nombre d'octets utilisés dans le cache de la passerelle. +
+ `CacheHitPercent` + + Moyenne + + Pourcentage des opérations de lecture d'application à partir de la passerelle qui sont servies à partir du cache. +
+ `CachePercentDirty` + + Moyenne + + Pourcentage global du cache de passerelle qui n'a pas été conservé sur AWS +
+ `CachePercentUsed` + + Moyenne + + Pourcentage global du stockage du cache de passerelle utilisé. +
+ `FileSharesUnavailable` + + Somme + + Cette métrique fournit le nombre de partages de fichiers sur ces passerelles qui sont dans l'état indisponible. +
+ `MemTotalBytes` + + Moyenne + + Cette métrique indique la quantité totale de mémoire sur la passerelle. +
+ `MemUsedBytes` + + Moyenne + + Cette métrique indique la quantité de mémoire utilisée sur la passerelle. +
+ `UploadBufferUsed` + + Somme + + Le nombre total d'octets utilisés dans le tampon de téléchargement de la passerelle. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-sys-dist.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-sys-dist.mdx new file mode 100644 index 00000000000..c4626f22647 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-sys-dist.mdx @@ -0,0 +1,85 @@ +--- +title: Distributeur AWS système Manager +metaDescription: 'New Relic''s AWS System Manager Distributor monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: '2024-02-28T00:00:00.000Z' +translationType: machine +--- + +Installez l'agent infrastructure de New Relic sur vos instances AWS EC2 en un seul clic grâce à notre intégration pour [le système AWS Manager Distributor](https://docs.aws.amazon.com/systems-manager/latest/userguide/distributor.html). Ce document explique la fonctionnalité d'intégration, comment l'activer et quelles données peuvent être signalées. + +## Caractéristiques [#features] + +Collectez et envoyez des données télémétriques à New Relic depuis diverses instances AWS en un seul clic. L'intégration du distributeur AWS système Manager de New Relic installe notre agent infrastructure sur votre instance AWS et vous permet de monitorer rapidement vos services, d'interroger les données entrantes et de créer un dashboard afin que vous puissiez observer votre système en un coup d'œil. + +## Prérequis [#prereqs] + +Effectuez la configuration recommandée par AWS dans [la documentation d'AWS Système Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-setting-up.html) pour configurer les rôles, les comptes utilisateur, les autorisations et les ressources initiales. + +## Activer l'intégration [#integration] + +Vous pouvez utiliser la console AWS Système Manager pour installer ou mettre à jour le package de distribution **New Relic infrastructure agent** une fois ou vous pouvez définir un calendrier d'installation. + +* Lorsque vous configurez une installation unique, **Distributor package** utilise la [commande AWS System Manager Run Command](https://docs.aws.amazon.com/systems-manager/latest/userguide/run-command.html), une fonctionnalité d'AWS System Manager, pour effectuer l'installation. +* Lorsque vous planifiez l'installation ou la mise à jour package , Distributor utilise [AWS System Manager State Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-state.html) pour l'installation ou la mise à jour. + +New Relic fournit également un processus automatisé pour le monitoring d'EC2 et peut être trouvé [ici](/whats-new/2023/08/whats-new-08-08-automatic-ec2-monitoring-through-nr-agent/) + +## Installer ou mettre à jour l'agent [#install-update] + +1. Ouvrez la [console](https://console.aws.amazon.com/systems-manager) AWS système Manager. Dans le volet de navigation, choisissez **Distributor**, sélectionnez **Third party** et sélectionnez la mosaïque **New Relic infrastructure agent** . + +2. Sélectionnez le mode d'installation. Vous pouvez installer ou mettre à jour le package **New Relic infrastructure agent** une fois ou planifier l'installation. Pour des informations détaillées sur l'installation de **Distributor packages**, consultez [la documentation d'AWS système Manager Distributor](https://docs.aws.amazon.com/systems-manager/latest/userguide/distributor-working-with-packages-deploy.html). + +3. Pour **Action**, choisissez **Install**. + +4. Pour **Installation type**, choisissez soit **Uninstall and reinstall**: le package est complètement désinstallé, puis réinstallé. L'agent New Relic n'est pas disponible tant que la réinstallation n'est pas terminée **In-place update**. L'application reste disponible pendant tout le processus de mise à jour. + +5. Pour **Additional Arguments**, collez le code ci-dessous. Assurez-vous de remplacer `YOUR_NEWRELIC_LICENSE_KEY` par votre [clé API New Relic](/docs/apis/intro-apis/new-relic-api-keys). + + ``` + { + "SSM_NR_LICENSE_KEY" : "YOUR_NEWRELIC_LICENSE_KEY" + } + ``` + + Des variables d'échantillon peuvent également être spécifiées dans des **Additional Arguments** comme indiqué ci-dessous : + + ``` + { "SSM_NR_LICENSE_KEY" : "YOUR_NEWRELIC_LICENSE_KEY", + "SSM_NRIA_METRICS_NETWORK_SAMPLE_RATE" : "SOME_INTEGER_VALUE", + "SSM_NRIA_METRICS_PROCESS_SAMPLE_RATE" : "SOME_INTEGER_VALUE", + "SSM_NRIA_METRICS_STORAGE_SAMPLE_RATE" : "SOME_INTEGER_VALUE", + "SSM_NRIA_METRICS_SYSTEM_SAMPLE_RATE" : "SOME_INTEGER_VALUE", + "SSM_NRIA_METRICS_NFS_SAMPLE_RATE" : "SOME_INTEGER_VALUE" } + ``` + + Si non spécifié, ils prendront les [valeurs par défaut](https://github.com/newrelic/infrastructure-agent/blob/master/assets/examples/infrastructure/newrelic-infra-template.yml.example). + +6. Dans la section **Targets** , choisissez les nœuds gérés sur lesquels vous souhaitez exécuter cette opération en spécifiant une balise, en sélectionnant manuellement l'instance ou les périphériques ou en spécifiant un groupe de ressources. Si vous ne voyez pas de nœud géré dans la liste, consultez [ces documents AWS](https://docs.aws.amazon.com/systems-manager/latest/userguide/troubleshooting-managed-instances.html). + +7. Pour **Rate Control** pour **Concurrency**, spécifiez soit un nombre, soit un pourcentage de cible sur lequel exécuter la commande en même temps. + + + Si vous avez sélectionné une cible en spécifiant des groupes de balises ou de ressources et que vous n'êtes pas certain du nombre de nœuds gérés qui sont une cible, limitez le nombre de cibles pouvant exécuter le document en même temps en spécifiant un pourcentage. + + +8. Pour **Error threshold**, spécifiez quand arrêter l'exécution de la commande sur d'autres cibles après son échec sur un nombre ou un pourcentage de nœuds gérés. Par exemple, si vous spécifiez trois erreurs, le Gestionnaire système arrête d'envoyer la commande lorsque la quatrième erreur est reçue. Les nœuds gérés qui traitent toujours la commande peuvent également envoyer des erreurs. + +9. **Verify the installation**Après avoir exécuté l’installation, vérifiez la progression dans la zone d’état de la commande. Lorsque vous voyez le statut Succès, cela signifie que l'installation a réussi. + +10. Explorez les données de votre application dans [notre UI](one.newrelic.com). + +## configuration et sondage [#configure-polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +[Informations d’interrogation par défaut](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) pour l’intégration AWS : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute ou 5 minutes + +## Rechercher et utiliser des données + +Après avoir installé l'agent New Relic Infrastructure, [vous pouvez ajuster et régler le flux de données provenant de votre instance](/docs/infrastructure/infrastructure-monitoring/get-started/get-started-infrastructure-monitoring). + +Pour en savoir plus sur la façon de trouver vos données, consultez notre [Introduction à l'intégration AWS](/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations/#insights). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-textract-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-textract-monitoring-integration.mdx new file mode 100644 index 00000000000..e06739c996f --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-textract-monitoring-integration.mdx @@ -0,0 +1,122 @@ +--- +title: Intégration d'Amazon Textract +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon Textract integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut désormais une intégration pour AWS Textract, envoyant ses données métriques à New Relic. + +Ce document explique la fonctionnalité de l'intégration, comment l'activer et quelles données peuvent être signalées. + +## Caractéristiques [#features] + +Collectez et envoyez des données télémétriques à New Relic depuis votre [application Textract](https://aws.amazon.com/textract/) en utilisant notre intégration. Monitorer vos services, interrogez les données entrantes et créez un dashboard pour tout observer en un coup d'œil. + +## Rapporter les données [#report-data] + +Nous avons deux options pour signaler ces données. Le chemin recommandé consiste à configurer notre [intégration Amazon flux de métriques CloudWatch ](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream). Alternativement, vous pouvez utiliser notre [ancienne intégration Amazon qui s'appuie sur des sondages](/docs/infrastructure/infrastructure-integrations/cloud-integrations/configure-polling-frequency-data-collection-cloud-integrations). + +## Rechercher et utiliser des données [#find-use-data] + +Les données de cette intégration sont attachées au type de données `Metric` . Pour trouver les métriques de votre intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Metrics and events** et filtrez par `aws.textract`. + +## données métriques [#metrics] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique (min, max, moyenne, compte, somme) + + Unité + + Description +
+ `ResponseTime` + + millisecondes + + Le temps qu’il a fallu pour répondre à une demande. +
+ `ServerErrorCount` + + compter + + Le nombre d'erreurs de serveur. La plage de codes de réponse HTTP pour une erreur de serveur est comprise entre 500 et 599. +
+ `SuccessfulRequestCount` + + compter + + Le nombre de requests de traduction réussies. Le code de réponse pour une demande réussie est compris entre 200 et 299. +
+ `ThrottledCount` + + compter + + Le nombre de requests soumises à limitation. +
+ `UserErrorCount` + + compter + + Le nombre d’erreurs utilisateur survenues. La plage de codes de réponse HTTP pour une erreur utilisateur est comprise entre 400 et 499. +
+ +## Conseils pour utiliser vos données [#use-data] + +Vous pouvez créer pour vous informer de tout changement en cours. Par exemple, une alerte peut être configurée pour informer les parties concernées des erreurs critiques ou fatales. [En savoir plus sur la création d'alertes](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-transcribe-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-transcribe-monitoring-integration.mdx new file mode 100644 index 00000000000..e16fb0d7c93 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-transcribe-monitoring-integration.mdx @@ -0,0 +1,180 @@ +--- +title: Intégration monitoring Amazon Transcribe +tags: + - Integrations + - Amazon transcribe + - AWS integrations list +metaDescription: 'The New Relic Amazon Transcribe integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration pour [Amazon Transcribe](https://aws.amazon.com/transcribe) qui rapporte vos métriques Transcribe à New Relic. + +## Caractéristiques [#features] + +Avec cette intégration, collectez et envoyez des données télémétriques à New Relic depuis votre service [Amazon Transcribe](https://aws.amazon.com/transcribe/) . Monitorer vos services, interrogez les données entrantes et créez un dashboard pour tout observer en un coup d'œil. + +## Activer l'intégration + +Pour activer cette intégration, découvrez comment [connecter les services AWS à New Relic](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream/#set-up-metric-stream). + +## Rechercher et utiliser des données [#find-use-data] + +Les données de cette intégration sont attachées au type de données `Metric` . Pour trouver ces données dans l'UI: accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Metrics and events** et filtrez sur `aws.transcribe`. + +## données métriques [#metrics] + +Cette intégration de New Relic Infrastructure collecte les données Amazon Transcribe suivantes : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique (min, max, moyenne, compte, somme) + + Unité + + Description +
+ `TotalRequestCount` + + compter + + Le nombre de transactions. +
+ `SuccessfulRequestCount` + + compter + + Le nombre de requests réussies. +
+ `SyncServerErrorCount` + + compter + + Le nombre d'erreurs de serveur. +
+ `SyncUserErrorCount` + + compter + + Le nombre d'erreurs utilisateur, telles que les paramètres, les fichiers, les autorisations non valides et les erreurs de limitation. +
+ `ThrottledCount` + + compter + + Le nombre de requests qui renvoient un `LimitExceededException` résultant d'un quota de taux de transaction dépassé. +
+ `LimitExceededCount` + + compter + + Le nombre de requests qui renvoient un `LimitExceededException` résultant d'un quota non-débit dépassé. +
+ `AsyncUserErrorCount` + + compter + + Nombre d'erreurs utilisateur asynchrones (backend), telles que : le format audio donné ne correspond pas à celui détecté, fréquence d'échantillonnage non valide ou erreur d'accès Amazon S3 des clients. +
+ `AsyncServerErrorCount` + + compter + + Le nombre d'erreurs de serveur asynchrones (backend) ou, plus précisément, d'erreurs de traitement de reconnaissance automatique de la parole (ASR). +
+ `AudioDurationTime` + + compter + + La durée, en secondes, d'un fichier audio ou vidéo. +
+ +Toutes les données importées ont ces dimensions : `Domain`, `ServiceType`, `Operation` et `LanguageCode`. + +## Conseils pour utiliser vos données [#use-data] + +Vous pouvez créer pour vous informer de tout changement en cours. Par exemple, une alerte peut être configurée pour informer les parties concernées des erreurs critiques ou fatales. [En savoir plus sur la création d'alertes](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-translate-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-translate-monitoring-integration.mdx new file mode 100644 index 00000000000..bb7a786d067 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-translate-monitoring-integration.mdx @@ -0,0 +1,141 @@ +--- +title: Intégration d'Amazon Translate +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon Translate integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut désormais une intégration pour AWS Translate, envoyant ses données métriques à New Relic. + +Ce document explique la fonctionnalité de l'intégration, comment l'activer et quelles données peuvent être signalées. + +## Caractéristiques + +Collectez et envoyez des données télémétriques à New Relic depuis votre [application Translate](https://aws.amazon.com/translate/) en utilisant notre intégration. Monitorer vos services, interrogez les données entrantes et créez un dashboard pour tout observer en un coup d'œil. + +## Rapporter les données [#report-data] + +Nous avons deux options pour signaler ces données. Le chemin recommandé consiste à configurer notre [intégration Amazon flux de métriques CloudWatch ](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream). Alternativement, vous pouvez utiliser notre [ancienne intégration Amazon qui s'appuie sur des sondages](/docs/infrastructure/infrastructure-integrations/cloud-integrations/configure-polling-frequency-data-collection-cloud-integrations). + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute ou 5 minutes + +## Rechercher et utiliser des données + +Pour trouver les métriques de votre intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Metrics and events** et filtrez par `aws.translate`. + +## données métriques + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique (min, max, moyenne, compte, somme) + + Unité + + Description +
+ `CharacterCount` + + compter + + Le nombre de caractères facturables dans requests. +
+ `ResponseTime` + + millisecondes + + Le temps qu’il a fallu pour répondre à une demande. +
+ `ServerErrorCount` + + compter + + Le nombre d'erreurs de serveur. La plage de codes de réponse HTTP pour une erreur de serveur est comprise entre 500 et 599. +
+ `SuccessfulRequestCount` + + compter + + Le nombre de requests de traduction réussies. Le code de réponse pour une demande réussie est compris entre 200 et 299. +
+ `ThrottledCount` + + compter + + Le nombre de requests soumises à limitation. +
+ `UserErrorCount` + + compter + + Le nombre d’erreurs utilisateur survenues. La plage de codes de réponse HTTP pour une erreur utilisateur est comprise entre 400 et 499. +
+ +Les données ont jusqu'à deux dimensions : `Language pair` et `Operation`. + +## Conseils pour utiliser vos données [#use-data] + +Vous pouvez créer pour vous informer de tout changement en cours. Par exemple, une alerte peut être configurée pour informer les parties concernées des erreurs critiques ou fatales. [En savoir plus sur la création d'alertes](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-trusted-advisor-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-trusted-advisor-integration.mdx new file mode 100644 index 00000000000..fe6649c63f8 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-trusted-advisor-integration.mdx @@ -0,0 +1,176 @@ +--- +title: Intégration AWS Trusted Advisor +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'The AWS Trusted Advisor monitoring integration with New Relic: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Pour utiliser cette intégration, vous devez disposer d'un [plan de support](https://aws.amazon.com/premiumsupport/plans/) AWS Business ou Enterprise. + + +AWS [Trusted Advisor](https://aws.amazon.com/premiumsupport/technology/trusted-advisor/) est un outil en ligne qui fournit des conseils en temps réel pour vous aider à suivre les bonnes pratiques AWS pour provisionner vos ressources. + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données de limites de service aux produits New Relic. Ce document explique comment activer cette intégration et décrit les données qui peuvent être capturées. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + + + Cette intégration nécessite des autorisations d’accès supplémentaires non couvertes par les politiques gérées par défaut. Vous pouvez en savoir plus sur la page [d'intégration et de politiques gérées](/docs/integrations/amazon-integrations/getting-started/integrations-managed-policies#recommended) . + + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation par défaut](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) pour l'intégration d'AWS Trusted Advisor : + +* Intervalle d'interrogation de New Relic : 1 heure + +Afin de disposer de données actualisées, New Relic envoie par programmation requests actualisation à AWS. Les vérifications Trusted Advisor sont [automatiquement actualisées par AWS chaque semaine](https://aws.amazon.com/premiumsupport/faqs/#TArefresh) uniquement pour les clients disposant de plans AWS Business ou Enterprise Support. + +## Afficher et utiliser les données [#find-data] + +Pour [afficher et utiliser vos données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data), accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez le lien d’intégration AWS Trusted Advisor. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `TrustedAdvisorSample` dans une catégorie de données : + +* Limites de service : apparaît dans New Relic avec la valeur `provider` `ServiceLimits`. + +## données métriques + +Il existe une catégorie `Trusted Advisor` de données : `ServiceLimits`. + +### Limites de service métriques [#metric-service-limits] + +Notre intégration Amazon collecte les données de limite de service Amazon suivantes auprès du fournisseur `ServiceLimits`. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `awsRegion` + + La région AWS dans laquelle se trouve la ressource identifiée. Peut être absent pour les services globaux qui n'ont pas de régions. +
+ `checkId` + + L'identifiant unique du contrôle AWS Trusted Advisor. +
+ `currentUsage` + + Limite d'utilisation actuelle du service dans la région. +
+ `isSuppressed` + + Si l'élément est exclu du résultat du contrôle. Les éléments exclus apparaissent séparément dans la console AWS. +
+ `limitAmount` + + Limite maximale actuelle de service dans la région. +
+ `limitName` + + Nom de la limite de service. +
+ `service` + + Nom du service. +
+ `serviceLimitUsage` + + Pourcentage de la limite de service utilisée. +
+ `status` + + Statut de la limite de service. Cela peut être l'un des suivants : + + `Green`:La limite d'utilisation du service est inférieure à 80 %. + + `Yellow`:La limite d'utilisation du service est comprise entre 80 % et 100 %. + + `Red`:La limite d'utilisation du service est de 100 %. + + `Blue`:Trusted Advisor n'a pas pu récupérer l'utilisation ou les limites. +
+ `timestamp` + + L'heure du dernier rafraîchissement du contrôle. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-verified-access-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-verified-access-monitoring-integration.mdx new file mode 100644 index 00000000000..bbf2283fcd3 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-verified-access-monitoring-integration.mdx @@ -0,0 +1,190 @@ +--- +title: Intégration monitoring d'Amazon Verified Access +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'The New Relic Amazon Verified Access integration: how to enable it, and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +New Relic fournit une intégration pour votre [log d'accès vérifié AWS](https://docs.aws.amazon.com/verified-access/latest/ug/what-is-verified-access.html). + +## Caractéristiques [#about] + +[AWS Verified Access](https://aws.amazon.com/verified-access) est un outil qui fournit un accès sécurisé aux applications d'entreprise sans nécessiter de VPN. + +Chaque fois que quelqu'un tente d'accéder à votre application d'entreprise, un log est créé et peut être transmis à New Relic via [AWS Kinesis Firehose](https://aws.amazon.com/kinesis/firehose). + +Cette intégration monitore votre activité d'accès vérifié, y compris les principales adresses IP refusées, le nombre total d'activités refusées et accordées, et bien plus encore. + +## Activer l'intégration de l'accès vérifié [#activate-integration] + + + Pour utiliser Kinesis Firehose, vous devez disposer d'un flux de diffusion Kinesis Data Firehose déjà créé. Si ce n'est pas le cas, vous pouvez en créer un en accédant à la fonctionnalité Amazon Kinesis Firehose depuis votre [console AWS](https://console.aws.amazon.com/firehose) et en créant un flux de diffusion avec `Destination: New Relic`. + + [En savoir plus sur la création d'un flux de diffusion Amazon Kinesis Data Firehose.](https://docs.aws.amazon.com/firehose/latest/dev/basic-create.html?icmpid=docs_console_unmapped) + + +Pour configurer cette intégration : + +1. Depuis votre console AWS, accédez au [service AWS VPC](https://console.aws.amazon.com/vpc). +2. Dans le panneau de gauche, sous la liste déroulante **AWS Verified Access** , sélectionnez `Verified Access instances`. +3. Sélectionnez l'ID de l'instance que vous souhaitez configurer. +4. Sélectionnez l’onglet `Verified Access instance logging configuration` . +5. Sélectionnez `Modify Verified Access instance logging configuration`. +6. Sélectionnez le bouton bascule `Deliver to Amazon Kinesis Data Firehose` . +7. Sélectionnez un flux de diffusion configuré pour pointer vers New Relic. + +## Rechercher et utiliser des données [#find-data] + +Vous pouvez interroger et explorer vos données dans [notre UI de logs](/docs/logs/ui-data/use-logs-ui), en utilisant un filtre de `metadata.product.name = Verified Access`. + +Ce tableau décrit les données signalées à partir du log d’accès vérifié. Pour un exemple de log, consultez le [document Exemples log AWS Verified Access](https://docs.aws.amazon.com/verified-access/latest/ug/verified-access-logs-examples.html). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Champ + + Description +
+ `activity` + + Le nom de l'activité pour l'accès vérifié. +
+ `category_name` + + Catégorie de log. Dans ce cas, ce sera généralement `Application activity`. +
+ `class_name` + + Nomme la classe du log. +
+ `device` + + Fournit des informations sur l'appareil qui tente d'accéder à l'application, comme l'adresse IP. +
+ `duration` + + La durée de la demande. +
+ `end_time` + + L'heure à laquelle la demande a pris fin. +
+ `http_request` + + Informations sur la demande d'accès à l'application, comme la méthode, le port et le nom d'hôte. +
+ `http_response` + + Le code de réponse de la demande. +
+ `identity` + + Informations sur l'identité de l'utilisateur tentant d'accéder à l'application. +
+ `metadata.product` + + identifiant pour le log. +
+ `src_endpoint` + + Le définit l'IP source et le port de la demande d'origine. +
+ `status` + + L'état de la tentative de connexion doit être `success`, `failure` ou `unknown`. +
+ `type_name` + + Le nom du type de log d'accès. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-vpc-flow-logs-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-vpc-flow-logs-monitoring-integration.mdx new file mode 100644 index 00000000000..7d8185a295b --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-vpc-flow-logs-monitoring-integration.mdx @@ -0,0 +1,472 @@ +--- +title: Intégration monitoring des logs Amazon VPC Flow +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon VPC Flow Logs monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Plus tard cette année, nous cesserons de prendre en charge cette intégration. Vous pouvez désormais configurer votre log de flux AWS VPC en installant un bundle qui inclut un dashboard conçu pour le log de flux AWS VPC. Découvrez comment [configurer le monitoring du log de flux AWS VPC](/docs/network-performance-monitoring/setup-performance-monitoring/cloud-flow-logs/aws-vpc-flow-log-monitoring/). + + +[Les Logs améliorés AWS VPC Flow](http://docs.aws.amazon.com/AmazonVPC/latest/UserGuide/flow-logs.html) [d'Amazon](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) vous permettent de capturer des informations sur le trafic IP entrant et sortant des interfaces réseau de votre VPC. L'intégration du log VPC Flow avec New Relic vous permet d'analyser tous les logs réseau générés par les réseaux privés afin de monitorer le trafic accepté/rejeté dans les IP publiques et à l'intérieur du VPC lui-même. + +L'intégration du log New Relic VPC Flow ne peut traiter que les logs au format par défaut d'AWS. Pour plus d'informations sur le formatage du log VPC Flow, consultez [la documentation du log VPC Flow d'Amazon](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html#flow-log-records). + +## Exigences [#reqs] + + + Si vous avez intégré un compte AWS via les flux métriques et le mode d'interrogation API, vous ne pouvez voir le log VPC que dans le compte fournisseur à l'aide de l'intégration des flux métriques. + + +Pour que le log VPC envoie des données à New Relic, vous devez activer une fonction Lambda fournie par New Relic qui effectuera le travail d'ingestion. Contrairement à d'autres intégrations AWS qui ont [un intervalle d'interrogation](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-polling-intervals-infrastructure-integrations), l'intégration du log VPC Flow reçoit des données lorsqu'elles sont envoyées à la fonction Lambda. Le taux de transmission des données log de flux VPC est de 15 secondes. + +## Activer monitoringdu log de flux VPC [#enable] + +Afin d'envoyer des données au service d'ingestion New Relic, New Relic fournit une fonction Lambda spécifique qui prend en charge les push depuis le log CloudWatch et récupère les données depuis les buckets S3. Pour affecter la fonction Lambda et activer monitoring du log de flux VPC : + +1. Créez une nouvelle fonction AWS Lambda à partir du référentiel Serverless : accédez à **Lambda > Create Function > Browse serverless App repository**, cochez la case **Show apps that create custom IAM roles or resource policies** et recherchez `NewRelic-log-ingestion`. +2. Remplissez la variable d’environnement `LICENSE_KEY` avec votre compte New Relic . +3. Passez en revue tous les paramètres facultatifs et adaptez-les en fonction de vos cas d’utilisation. +4. Sélectionnez **Deploy** pour créer une nouvelle stack CloudFormation, une nouvelle fonction appelée `newrelic-log-ingestion` et le rôle requis. +5. Accédez à la fonction `newrelic-log-ingestion` . +6. Continuez avec la procédure pour [diffuser le log vers la fonction Lambda](#stream-logs). + + + La fonction `newrelic-log-ingestion` nécessite la politique AWSLambdaBasicExecutionRole qui contient les autorisations minimales (comme recommandé par AWS). Un nom de rôle IAM personnalisé peut être défini au moment de l'installation, sinon, un rôle approprié sera créé, ce qui nécessitera que CAPABILITY\_IAM soit reconnu. + + +## log de flux vers la fonction Lambda [#stream-logs] + +Pour diffuser le log vers la fonction Lambda: + +1. Dans la [console de gestion CloudWatch](https://console.aws.amazon.com/cloudwatch/home), sélectionnez **Logs**. +2. Sélectionnez **/aws/vpc/flow-logs** et cliquez sur **Actions > Stream to AWS Lambda**. +3. Sélectionnez la fonction New Relic Lambda que vous avez créée (`newrelic-log-ingestion`) lorsque vous [avez activé monitoringdu log de flux VPC](#enable), puis sélectionnez **Next**. +4. Conservez la valeur par défaut **Log format** (log de flux Amazon VPC) et sélectionnez **Next**. +5. Vérifiez la configuration, puis sélectionnez **Start streaming**. + +## Configurer le log de trafic [#configuration] + +Vous pouvez configurer le log du trafic depuis AWS dans trois modes : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Taper + + Description +
+ Trafic accepté + + Le log ne capturera que le trafic à droite +
+ Trafic rejeté + + Le log ne reflétera que le trafic rejeté +
+ Tout le trafic + + Le log affichera à la fois le trafic accepté et rejeté +
+ +## Fréquence des sondages [#polling] + +Contrairement à d'autres intégrations AWS qui ont [un intervalle d'interrogation](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-polling-intervals-infrastructure-integrations), l'intégration du log VPC Flow reçoit des données lorsqu'elles sont envoyées à la fonction Lambda. Le taux de transmission des données log de flux VPC est de 15 secondes. + +## Données du log de flux Amazon VPC traitées [#metrics] + +New Relic collecte uniquement ces champs log à partir des [enregistrements de log Amazon VPC Flow](http://docs.aws.amazon.com/AmazonVPC/latest/UserGuide/flow-logs.html#flow-log-records). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Champ + + Description +
+ `version` + + La version du log de flux VPC. +
+ `account-id` + + L'ID de compte AWS pour le log de flux. +
+ `interface-id` + + L'ID de l'interface réseau pour laquelle le flux log s'applique. +
+ `srcaddr` + + L'adresse IPv4 ou IPv6 source. L'adresse IPv4 de l'interface réseau est toujours son adresse IPv4 privée. +
+ `dstaddr` + + L'adresse IPv4 ou IPv6 de destination. L'adresse IPv4 de l'interface réseau est toujours son adresse IPv4 privée. +
+ `srcport` + + Le port source du trafic. +
+ `dstport` + + Le port de destination du trafic. +
+ `protocol` + + Le numéro de protocole IANA du trafic. Pour plus d’informations, consultez la page Numéros de protocole Internet attribués. +
+ `packets` + + Le nombre de paquets transférés pendant la fenêtre de capture. +
+ `bytes` + + Le nombre d'octets transférés pendant la fenêtre de capture. +
+ `start` + + L'heure, en secondes Unix, du début de la fenêtre de capture. +
+ `end` + + L'heure, en secondes Unix, de la fin de la fenêtre de capture. +
+ `action` + + L'action associée au trafic : + + * `ACCEPT`:Le trafic enregistré a été autorisé par les groupes de sécurité ou les ACL réseau. + * `REJECT`:Le trafic enregistré n'a pas été autorisé par les groupes de sécurité ou les ACL réseau. +
+ `log-status` + + L'état de logging du log de flux : + + * OK : les données sont enregistrées normalement dans le log CloudWatch . + * `NODATA`:Il n’y avait aucun trafic réseau vers ou depuis l’interface réseau pendant la fenêtre de capture. + * `SKIPDATA`:Certains enregistrements log de flux ont été ignorés pendant la fenêtre de capture. Cela peut être dû à une contrainte de capacité interne ou à une erreur interne. +
+ +## Métriques du log de flux VPC [#metrics] + +New Relic traite ces métriques de trafic : + + + + + + + + + + + + + + + + + + + + + + + +
+ Métriques + + Description +
+ `provider.bytes` + + Le nombre d'octets. +
+ `provider.packets` + + Le nombre de paquets. +
+ +## Dimensions du log de flux VPC [#dimensions] + +New Relic vous permet de découper et de segmenter les métriques du trafic accepté ou rejeté à l'aide de ces dimensions : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Dimensions + + Définition +
+ `provider.action` + + Si le paquet a été accepté ou rejeté +
+ `provider.destinationAddress` + + Adresse IP de destination +
+ `provider.destinationPort` + + Le port de destination +
+ `provider.interfaceId` + + L'ID de l'interface réseau où le paquet est enregistré +
+ `provider.privateDnsName` + + Le nom DNS privé +
+ `provider.privateIp` + + L'IP privée +
+ `provider.protocol` + + Le numéro de protocole Internet +
+ `provider.publicDnsName` + + Le nom DNS public +
+ `provider.publicIp` + + L'IP publique +
+ `provider.requesterManaged` + + Indicateur que l'interface réseau a été créée par l'utilisateur ou par AWS +
+ `provider.sourceAddress` + + L'adresse IP source +
+ `provider.sourcePort` + + Le port source +
+ `provider.subnetId` + + L'ID du sous-réseau +
+ `provider.vpcId` + + L'ID VPC auquel appartient l'interface réseau +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-vpc-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-vpc-monitoring-integration.mdx new file mode 100644 index 00000000000..6f675045558 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-vpc-monitoring-integration.mdx @@ -0,0 +1,274 @@ +--- +title: Intégration monitoring Amazon VPC +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s Amazon VPC monitoring integration: how to enable it, and the data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +[L'intégration de New Relic Infrastructure](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données Amazon VPC à New Relic. Ce document explique comment activer l'intégration et décrit les données rapportées. + +## Caractéristiques [#features] + +Amazon [Virtual Private Cloud (VPC)](https://aws.amazon.com/vpc/) est un réseau virtuel qui utilise l'infrastructure évolutive d'Amazon Web Services (AWS). Avec l'intégration VPC de New Relic, vous pouvez gagner en visibilité sur les modifications des événements configuration qui se superposent à vos services Amazon. + +Les données VPC sont disponibles dans un dashboard prédéfini et vous pouvez créer [des requêtes et des graphiques personnalisés](/docs/infrastructure/integrations-getting-started/getting-started/use-integration-data-new-relic-insights). Vous pouvez également créer une condition d'alerte pour vous informer des modifications apportées au VPC. + +De plus, [le log de flux Amazon VPC amélioré](http://docs.aws.amazon.com/AmazonVPC/latest/UserGuide/flow-logs.html) vous permet de capturer des informations sur le trafic IP vers et depuis les interfaces réseau de votre VPC. + +## Activer [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration Amazon VPC : + +* Intervalle d'interrogation par défaut de New Relic : 15 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez l’un des liens d’intégration VPC. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `PrivateNetworkSample` , avec les valeurs `provider` de : + +* [Passerelle VpcNat](#vpc-nat-gateway) +* [Tunnel VPN Vpc](#vpc-vpn-tunnel) + + + Par défaut, la collecte des données VpcNatGateway, VpcVpnTunnel et VpcVpnConnection est désactivée. + + +En effet, si vous disposez de nombreuses passerelles NAT ou de nombreux VPN (connexions et tunnels), cela peut entraîner une augmentation de votre facture CloudWatch. Pour cette raison, l'intégration fournit des paramètres de configuration pour définir si vous souhaitez récupérer ces données. + +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +### Données de la passerelle VPC NAT [#vpc-nat-gateway] + +Cette intégration collecte les données suivantes à partir de `PrivateNetworkSample` avec une valeur de fournisseur de `VpcNatGateway`: + + + Pour des descriptions complètes, consultez [Métriques et dimensions de la passerelle Amazon VPC NAT ](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/nat-gateway-metricscollected.html). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `activeConnectionCount` + + Le nombre total de connexions TCP actives simultanées via la passerelle NAT. +
+ `bytesInFromDestination` + + Le nombre d'octets reçus par la passerelle NAT depuis la destination. +
+ `bytesInFromSource` + + Le nombre d’octets reçus par la passerelle NAT provenant des clients de votre VPC. +
+ `bytesOutToDestination` + + Le nombre d'octets envoyés via la passerelle NAT vers la destination. +
+ `bytesOutToSource` + + Le nombre d’octets envoyés via la passerelle NAT aux clients de votre VPC. +
+ `connectionAttemptCount` + + Le nombre de tentatives de connexion effectuées via la passerelle NAT. +
+ `connectionEstablishedCount` + + Le nombre de connexions établies via la passerelle NAT. +
+ `errorPortAllocation` + + Nombre de fois où la passerelle NAT n'a pas pu allouer un port source. +
+ `idleTimeoutCount` + + Le nombre de connexions qui sont passées de l’état actif à l’état inactif. Une connexion active passe à l'état inactif si elle n'a pas été fermée correctement et qu'aucune activité n'a eu lieu au cours des 350 dernières secondes. +
+ `packetsDropCount` + + Le nombre de paquets abandonnés par la passerelle NAT. +
+ `packetsInFromDestination` + + Le nombre de paquets reçus par la passerelle NAT depuis la destination. +
+ `packetsInFromSource` + + Le nombre de paquets reçus par la passerelle NAT provenant des clients de votre VPC. +
+ `packetsOutToDestination` + + Le nombre de paquets envoyés via la passerelle NAT vers la destination. +
+ `packetsOutToSource` + + Le nombre de paquets envoyés via la passerelle NAT aux clients de votre VPC. +
+ +### Tunnel VPN VPC + +Cette intégration collecte les données suivantes à partir de `PrivateNetworkSample` avec une valeur de fournisseur de `VpcVpnTunnel`: + + + Pour des descriptions complètes, consultez [Métriques et dimensions Amazon VPC VPN](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/vpn-metricscollected.html). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `tunnelState` + + L'état du tunnel. 0 indique BAS et 1 indique HAUT. +
+ `tunnelDataIn` + + Les octets reçus via le tunnel VPN. Chaque point de données métrique représente le nombre d'octets reçus après le point de données précédent. Utilisez la statistique Somme pour afficher le nombre total d’octets reçus pendant la période. +
+ `tunnelDataOut` + + Les octets envoyés via le tunnel VPN. Chaque point de données métrique représente le nombre d'octets envoyés après le point de données précédent. Utilisez la statistique Somme pour afficher le nombre total d’octets envoyés pendant la période. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-waf-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-waf-monitoring-integration.mdx new file mode 100644 index 00000000000..a5442bca354 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-waf-monitoring-integration.mdx @@ -0,0 +1,297 @@ +--- +title: Intégration monitoring AWS WAF +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS WAF monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + + + Activez l' [intégrationAWS CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream/)pour monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. L’intégration individuelle n’est plus notre option recommandée. + + +New Relic propose une intégration permettant de générer des rapports sur les données [pare-feu de votre application Web AWS](https://aws.amazon.com/waf/) . Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +## Activer l'intégration [#activate] + +Pour activer cette intégration, suivez les procédures standard pour [connecter les services AWS à New Relic](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-polling-intervals-infrastructure-integrations) par défaut pour l'intégration AWS WAF : + +* Intervalle d'interrogation de New Relic : 5 minutes +* Intervalle de données Amazon CloudWatch : 1 minute + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez une intégration. + +Vous pouvez [interroger et explorer vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data) en utilisant le [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + +### WAF Classique + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ WebACL + + `AwsWafWebACLSample` + + `AwsWafWebACL` +
+ Groupe de règles + + `AwsWafRuleGroupSample` + + `AwsWafRuleGroup` +
+ +### WAF V2 + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ WebACL + + `AwsWafV2WebACLSample` + + `AwsWafV2WebACL` +
+ Groupe de règles + + `AwsWafV2RuleGroupSample` + + `AwsWafV2RuleGroup` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données AWS WAF pour WebACL et RuleGroup. + +### Données WAF WebACL + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `AllowedRequests` + + Compter + + Le nombre de requests Web autorisées. +
+ `BlockedRequests` + + Compter + + Le nombre de requests Web bloquées. +
+ `CountedRequests` + + Compter + + Une requête Web comptée est une requête qui correspond à toutes les conditions d’une règle particulière. requests Web comptées sont généralement utilisées à des fins de test. +
+ `PassedRequests` + + Compter + + requests réussies sont requests qui ne correspondent à aucune règle contenue dans le groupe de règles. +
+ +### Données du groupe de règles WAF + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `AllowedRequests` + + Compter + + Le nombre de requests Web autorisées. +
+ `BlockedRequests` + + Compter + + Le nombre de requests Web bloquées. +
+ `CountedRequests` + + Compter + + Une requête Web comptée est une requête qui correspond à toutes les conditions d’une règle particulière. requests Web comptées sont généralement utilisées à des fins de test. +
+ `PassedRequests` + + Compter + + requests réussies sont requests qui ne correspondent à aucune règle contenue dans le groupe de règles. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-x-ray-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-x-ray-monitoring-integration.mdx new file mode 100644 index 00000000000..50afba9f34d --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-x-ray-monitoring-integration.mdx @@ -0,0 +1,78 @@ +--- +title: AWS X-Ray monitoring Intégration +tags: + - Integrations + - Amazon integrations + - AWS integrations list +metaDescription: 'New Relic''s AWS X-Ray Monitoring integration: what data it reports, and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +New Relic propose une intégration pour générer des rapports sur vos données AWS X-Ray. Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées. + +## Activer l'intégration [#activate-integration] + +Pour activer l'intégration d'AWS X-Ray, suivez les procédures standard pour [connecter les services AWS à l'infrastructure](/docs/integrations/amazon-integrations/get-started/connect-aws-infrastructure). + +Une fois que vous avez connecté avec succès votre compte AWS à New Relic : + +1. Allez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure**, puis cliquez sur **AWS**. +2. Cliquez sur **Manage Services** pour sélectionner l’intégration AWS que vous souhaitez activer. +3. Cochez la case à côté de **AWS X-Ray**. +4. Cliquez sur **Save**. + +## configuration et sondage [#config-polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer vos données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/cloud-integrations/configure-polling-frequency-data-collection-cloud-integrations). + +Voici les informations [d’interrogation](/docs/integrations/amazon-integrations/get-started/polling-intervals-aws-integrations) par défaut pour l’intégration AWS X-Ray : + +* Intervalle d'interrogation de New Relic : 5 minutes + + + Veuillez patienter jusqu'à 20 minutes pour que votre première trace apparaisse. Étant donné que les traces sont collectées une fois terminées et une seule fois par intervalle d'interrogation, les données trace X-Ray sont considérablement en retard par rapport au temps réel et ne doivent pas être utilisées pour l'alerte. + + + + un intervalle d'interrogation supérieur à 5 minutes peut entraîner une perte de trace. New Relic laisse tomber des données de trace datant de plus de 20 minutes. De même, les traces de longue durée sont susceptibles d’être incomplètes. Monitoring de X-Ray collecte uniquement les traces terminées et les intervalles dans une trace datant de plus de 20 minutes sont supprimés. + + +## Rechercher et utiliser des données [#find-data] + +New Relic signale les segments X-Ray comme [des données`Span` ](/docs/data-apis/understand-data/new-relic-data-types/#new-relic-tracing). Une fois cette intégration activée, vous devriez voir la trace AWS X-Ray apparaître dans [le tracing distribué](/docs/apm/distributed-tracing/ui-data/understand-use-distributed-tracing-data). + +Pour filtrer vos spans, vous pouvez utiliser l'attribut `newRelic.ingestPoint` . Cet attribut est défini sur `xray.polling` pour toutes les plages de X-Ray. + +Voici un exemple de requête NRQL pour vérifier l'ingestion de X-Ray : + +```sql +SELECT count(*) FROM Span WHERE newRelic.ingestPoint = 'xray.polling' TIMESERIES +``` + +Voici un exemple de requête NRQL pour corréler les données X-Ray avec des performances API spécifiques : + +```sql +SELECT average(duration.ms) FROM Span WHERE newRelic.ingestPoint = 'xray.polling' +AND http.url LIKE 'https://yourdomanin.com/api/v1/endpoint%' SINCE 1 month ago +LIMIT MAX TIMESERIES 1 day +``` + +## Utilisation de politiques IAM personnalisées [#use-iam] + +Si vous utilisez une stratégie IAM personnalisée lors de la connexion de votre compte AWS à l'agent d'infrastructure, votre stratégie personnalisée aura besoin des autorisations suivantes pour que l'intégration AWS X-Ray fonctionne : + +* `xray:BatchGet*` +* `xray:Get*` + +## Fonctions X-Ray et Lambda [#lambda] + +La fonction Lambda nécessite une certaine configuration pour utiliser X-Ray. Consultez la section [Utilisation AWS X-Ray](https://docs.aws.amazon.com/lambda/latest/dg/services-xray.html) dans le guide des développeurs AWS Lambda . + +En particulier, notez que le rôle d’exécution de votre fonction Lambda aura besoin [d’autorisations supplémentaires](https://docs.aws.amazon.com/lambda/latest/dg/services-xray.html#services-xray-permissions) pour enregistrer des données dans X-Ray. + +## Fonctions X-Ray et Steps [#x-ray-step] + +Les machines d'état AWS Step Function sont des applications distribuées et peuvent être monitorées avec X-Ray. Le tracing de X-Ray doit être [explicitement activé](https://docs.aws.amazon.com/step-functions/latest/dg/concepts-xray-tracing.html) pour que X-Ray capture les données des machines à états à fonction pas à pas. + +Assurez-vous d'activer le tracing X-Ray pour toute [fonction Lambda](#lambda) dans votre machine d'état ainsi que pour la machine d'état dans son ensemble. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/rate-limit-alerts-amazon.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/rate-limit-alerts-amazon.mdx new file mode 100644 index 00000000000..784f689d408 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/aws-integrations-list/rate-limit-alerts-amazon.mdx @@ -0,0 +1,32 @@ +--- +title: Alertes de limite de débit d'Amazon +type: troubleshooting +tags: + - Integrations + - Amazon integrations + - Troubleshooting +metaDescription: Troubleshooting procedures to resolve throttled AWS data with your infrastructure integration. +freshnessValidatedDate: never +translationType: machine +--- + +## Problème + +Vous constatez une augmentation massive de l'utilisation d'AWS dans [le dashboard New Relic](/docs/infrastructure/new-relic-infrastructure/data-instrumentation/new-relic-apm-data-infrastructure) pour votre compte AWS en raison d'un nombre élevé d'appels d'API Amazon EC2 et/ou ELB. Cela se manifeste par une alerte de limitation de débit d'Amazon. Cela peut également entraîner une augmentation de votre [facture CloudWatch](/docs/infrastructure/infrastructure-integrations/troubleshooting/cloudwatch-billing-issues). + +## Solution + +Si vous rencontrez des problèmes de limitation, essayez ces solutions selon le cas : + +1. [Pensez à ajuster les paramètres de configuration](/docs/infrastructure/new-relic-infrastructure/configuration/configure-infrastructure-agent) de votre agent d’infrastructure. +2. [Déconnectez l’intégration AWS](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure#disconnect) qui provoque des problèmes de limitation. +3. Contactez [support.newrelic.com](https://support.newrelic.com/) pour désactiver les appels effectués au nom de chaque intégration AWS. + +## Cause + +Notre intégration Amazon requête vos services AWS selon [des intervalles d'interrogation](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-polling-intervals-infrastructure-integrations), qui varient en fonction de l'intégration. L'intervalle d'interrogation garantit que vos données AWS sont à jour et que chaque entité AWS est interrogée pendant chaque intervalle. + +* Notre intégration ELB effectue des appels vers l'API Amazon ELB. +* Notre intégration EC2, VPC et EBS effectue des appels vers l'API Amazon EC2 . + +Si vous disposez d'une grande quantité d'entités d'intégration AWS, l'intervalle d'interrogation peut limiter les données communiquées entre Amazon et New Relic. Par exemple, si vous disposez de 200 équilibreurs de charge Elastic , New Relic fait appel à une API pour extraire des données sur chacun de ces équilibreurs de charge toutes les cinq minutes. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/connect-aws-govcloud-new-relic.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/connect-aws-govcloud-new-relic.mdx new file mode 100644 index 00000000000..8cdb5632ae3 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/connect-aws-govcloud-new-relic.mdx @@ -0,0 +1,89 @@ +--- +title: Connectez AWS GovCloud +tags: + - Integrations + - Amazon integrations + - Get started +metaDescription: 'Deploy your most critical services on AWS GovCloud, and monitor your entire infrastructure with New Relic.' +freshnessValidatedDate: never +translationType: machine +--- + +Les régions [AWS GovCloud (US)](https://aws.amazon.com/govcloud-us/) sont conçues pour répondre aux besoins réglementaires spécifiques des États-Unis (agences fédérales, étatiques et locales), des établissements d'enseignement et de l'écosystème de soutien. Il s'agit d'une région AWS isolée conçue pour héberger des données sensibles et des charges de travail réglementées dans le cloud, aidant les clients à prendre en charge leurs exigences de conformité avec le gouvernement américain. L'[ensemble des services AWS disponibles](https://aws.amazon.com/govcloud-us/details/) est un sous-ensemble de l'écosystème AWS. + +New Relic vous offre la confiance nécessaire pour déployer vos services les plus critiques sur GovCloud, vous permettant de monitorer et d'observer l'ensemble de votre écosystème depuis [notre plateforme](/docs/new-relic-one/use-new-relic-one/get-started/introduction-new-relic-one). + +La fonctionnalité AWS flux de métriques CloudWatch n'est pas disponible dans les régions GovCloud. + + + Vous pouvez utiliser Terraform pour automatiser le processus d'activation de l'intégration cloud. Découvrez comment procéder sur le [site de documentation officielle de Terraform](https://registry.terraform.io/providers/newrelic/newrelic/latest/docs/guides/cloud_integrations_guide). + + +## Exigences [#requirements] + +* Vous devez avoir [votre compte AWS connecté à New Relic](/docs/integrations/amazon-integrations/get-started/connect-aws-infrastructure) avant de connecter GovCloud. + +* Si vous utilisez notre :[AWS Lambda monitoring](/docs/serverless-function-monitoring/aws-lambda-monitoring/get-started/introduction-new-relic-monitoring-aws-lambda) notre `newrelic-log-ingestion` n'est pas déployé dans le [référentiel AWS Application Serverless ](https://aws.amazon.com/serverless/serverlessrepo/)pour AWS GovCloud ; il doit être installé manuellement. Pour obtenir des instructions, voir [Activer le monitoring Lambda](/docs/serverless-function-monitoring/aws-lambda-monitoring/get-started/enable-new-relic-monitoring-aws-lambda#connect-aws). + +* Intégration AWS prise en charge dans GovCloud : + + * [ALB/NLB](/docs/integrations/amazon-integrations/aws-integrations-list/aws-albnlb-monitoring-integration) + * [Passerelle API](/docs/integrations/amazon-integrations/aws-integrations-list/aws-api-gateway-monitoring-integration) + * [Mise à l'échelle automatique](/docs/integrations/amazon-integrations/aws-integrations-list/aws-auto-scaling-monitoring-integration) + * [CloudTrail](/docs/integrations/amazon-integrations/aws-integrations-list/aws-cloudtrail-monitoring-integration) + * [Connexion directe](/docs/integrations/amazon-integrations/aws-integrations-list/aws-direct-connect-monitoring-integration) + * [DynamoDB](/docs/integrations/amazon-integrations/aws-integrations-list/aws-dynamodb-monitoring-integration) + * [EBS](/docs/integrations/amazon-integrations/aws-integrations-list/aws-ebs-monitoring-integration) + * [EC2](/docs/integrations/amazon-integrations/aws-integrations-list/aws-ec2-monitoring-integration) + * [Elasticsearch](/docs/integrations/amazon-integrations/aws-integrations-list/aws-elasticsearch-monitoring-integration) + * [ELB (Classique)](/docs/integrations/amazon-integrations/aws-integrations-list/aws-elb-classic-monitoring-integration) + * [DME](/docs/integrations/amazon-integrations/aws-integrations-list/aws-emr-monitoring-integration) + * [JE SUIS](/docs/integrations/amazon-integrations/aws-integrations-list/aws-iam-monitoring-integration) + * [Lambda](/docs/integrations/amazon-integrations/aws-integrations-list/aws-lambda-monitoring-integration) + * [RDS](/docs/integrations/amazon-integrations/aws-integrations-list/aws-rds-monitoring-integration) + * [Redshift](/docs/integrations/amazon-integrations/aws-integrations-list/aws-redshift-integration) + * [Route 53](/docs/integrations/amazon-integrations/aws-integrations-list/aws-route-53-monitoring-integration) + * [S3](/docs/integrations/amazon-integrations/aws-integrations-list/aws-s3-monitoring-integration) + * [SNS](/docs/integrations/amazon-integrations/aws-integrations-list/aws-sns-monitoring-integration) + * [SQS](/docs/integrations/amazon-integrations/aws-integrations-list/aws-sqs-monitoring-integration) + * [Fonctions d'étape](/docs/integrations/amazon-integrations/aws-integrations-list/aws-step-functions-monitoring-integration) + +## Connecter AWS GovCloud à New Relic + +Pour commencer à recevoir des données Amazon avec l'intégration AWS de New Relic, connectez votre compte Amazon à New Relic. + +1. Obtenez [vos identifiants](#govcloud-credentials). +2. Allez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GovCloud**. +3. Cliquez sur **Add AWS GovCloud account**. +4. Donnez un nom à votre compte AWS, fournissez les informations d’identification pour connecter votre compte et cliquez sur **Submit**. +5. Sélectionnez les services Amazon Web Services à monitorer avec l’intégration de New Relic Infrastructure, puis cliquez sur **Save**. + +## Comment obtenir les identifiants GovCloud pour New Relic [#govcloud-credentials] + +1. Depuis la [console IAM](https://console.amazonaws-us-gov.com/iam/home#/users), cliquez sur **Add user**. + +2. Pour le **User name**, tapez **NewRelicInfrastructure-Integrations**. Pour **Select AWS access type**, sélectionnez comme **Programmatic access**. + + Add a user in the AWS IAM console. + +
+ **AWS IAM console > Add user**: ajouter **NewRelicInfrastructure-Integrations** en tant qu'utilisateur. +
+ +3. Joindre la politique : recherchez **ReadOnlyAccess**, cochez la case correspondant à la politique nommée **ReadOnlyAccess**, puis cliquez sur **Next: Tags** (l’ajout d’une balise est facultatif). Vous pouvez également [créer votre propre politique gérée](/docs/integrations/amazon-integrations/getting-started/integrations-managed-policies) et limiter les autorisations que vous accordez à New Relic en fonction des services AWS que vous souhaitez monitorer. + + AWS-set-permissions.png + +
+ **AWS IAM console > Add user > Set permissions**: sélectionnez **ReadOnlyAccess**. +
+ +4. Sur la page **Tags** , cliquez sur **Next: Review**. Consultez le résumé des détails de l’utilisateur et cliquez sur **Create user**. + + In IAM console, create the user. + +
+ **AWS IAM console > Add user > Set permissions > Tags > Review**: vérifiez que les informations du nouvel utilisateur sont exactes. +
+ +5. Votre utilisateur devrait être créé avec succès. Téléchargez les informations d’identification de sécurité de l’utilisateur en cliquant sur le bouton **Download .csv** , puis sur **Close**. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/ec2-quickstart.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/ec2-quickstart.mdx new file mode 100644 index 00000000000..3eb37cd32da --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/ec2-quickstart.mdx @@ -0,0 +1,35 @@ +--- +title: Installer l'agent d'infrastructure sur les instances EC2 +tags: + - Infrastructure + - Automated monitoring of EC2 instances + - EC2 instances + - AWS Systems Manager Distributor + - Amazon Elastic Compute Cloud +metaDescription: Automated monitoring of EC2 instances +freshnessValidatedDate: never +translationType: machine +--- + +L'intégration EC2 de New Relic installe notre [agent infrastructure ](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic)sur votre instance. Il utilise un modèle CloudFormation. L'agent est un fichier exécutable léger qui collecte des données sur votre instance. Il transmet également les données de l'intégration infrastructure à New Relic et transmet les données log pour l'analyse log . Ce document vous guide à travers les prérequis et les étapes à suivre pour installer l'agent d'infrastructure sur les instances EC2. + +## Prérequis [#prereq] + +* Rôle IAM nécessaire pour l'installation du modèle CloudFormation. +* Activer l'adresse IP publique dans les instances EC2. +* Installez l’agent SSM sur l’image machine Amazon (AMI) de l’instance. Remarque : la plupart des AMI incluent déjà l’agent SSM par défaut. Voir la liste des AMI avec agent SSM préinstallé [ici](https://docs.aws.amazon.com/systems-manager/latest/userguide/ami-preinstalled-agent.html). +* l'nstanceEC2 dispose des autorisations nécessaires pour interagir avec SSM et le profil ou le rôle instance est associé à la politique `AmazonSSMManagedInstanceCore`. +* Le sous-réseau VPC associé à l’instance dispose d’une table de routage connectée à une passerelle Internet. +* Enfin, possédez un compte New Relic et sa clé de licence valide. Découvrez [comment obtenir la clé de licence New Relic](/docs/apis/intro-apis/new-relic-api-keys/) si vous avez besoin de plus d'informations. + +Pour déployer ce modèle dans de nombreuses régions, comptes et unités organisationnelles, vous devez disposer de ces [autorisations](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/stacksets-prereqs.html). + +## Étapes pour activer monitoring automatisée de l'instance + +1. Suivez tous les prérequis mentionnés ci-dessus. +2. lancez le [modèle CloudFormation](https://github.com/aws-quickstart/quickstart-ct-newrelic-one/blob/main/templates/EC2_Quickstart.yml) sur votre compte et remplissez les champs obligatoires. paire de valeurs de balise associée aux instances EC2 sur lesquelles vous souhaitez installer l'agent New Relic Infrastructure. L'agent New Relic Infrastructure est uniquement installé sur les instances possédant cette tag de balises valeur-clé spécifique. Sans une tag de clés de valeur spécifique, elle sera installée sur tous par défaut. +3. Une fois le déploiement terminé, vous pouvez vérifier le log détaillé et les métriques des anciennes et nouvelles instances qualifiées EC2 d'un compte AWS dans New Relic. + + + Il y a une mise à jour mensuelle de toutes les instances avec le dernier agent New Relic Infrastructure. + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/eks-add-on.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/eks-add-on.mdx new file mode 100644 index 00000000000..04bb718f4d8 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/eks-add-on.mdx @@ -0,0 +1,110 @@ +--- +title: Installer le module complémentaire EKS depuis la place de marché AWS +tags: + - Infrastructure + - Install the EKS Add-on + - NewRelic Operator + - AWS EKS Add-on +metaDescription: New Relic's EKS add-on for EKS monitoring. +freshnessValidatedDate: never +translationType: machine +--- + +Amazon Elastic Kubernetes Service (Amazon EKS) est un service Kubernetes géré qui vous permet d'exécuter facilement Kubernetes sur AWS et sur site. Kubernetes est un système open source permettant d'automatiser le déploiement, la mise à l'échelle et la gestion des applications conteneurisées. Ce document vous guide à travers les étapes requises pour utiliser le module complémentaire EKS d'AWS Marketplace. + +## Prérequis [#prereq] + +* Un cluster [Amazon Elastic Kubernetes Service (EKS)](https://docs.aws.amazon.com/eks/latest/userguide/what-is-eks.html) . Pour plus d'informations, consultez notre [IntégrationKubernetes : compatibilité et exigences](/docs/kubernetes-pixie/kubernetes-integration/get-started/kubernetes-integration-compatibility-requirements/) et [le guide utilisateur d'Amazon](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html). +* Un compte New Relic valide. Vous pouvez vous abonner gratuitement à New Relic [depuis la place de marché AWS](https://aws.amazon.com/marketplace/pp/prodview-ov56chowabeb4?sr=0-3&ref_=beagle&applicationId=AWS-Marketplace-Console). +* Abonnez-vous à l'[intégration New Relic Kubernetes](https://aws.amazon.com/marketplace/pp/prodview-gcywa6keq2ajy?applicationId=AWS-Marketplace-Console&ref_=beagle&sr=0-5), également disponible gratuitement. +* Connectez-vous à [New Relic](https://one.newrelic.com/) et générez une [clé de licence](https://one.newrelic.com/api-keys). + + + Ce module complémentaire n'est actuellement pris en charge que sur instance de type x86, la prise en charge d'ARM64 étant prévue prochainement. + + +## Provisionnez le module complémentaire EKS via la console AWS [#provision-k8s] + +1. Accédez au **EKS Cluster > Add-Ons > Get More add-ons**. + + EKS Add On Tab. + +2. Sous le module complémentaire AWS Marketplace, recherchez, parcourez ou accédez à l’intégration New Relic Kubernetes , cochez la case et cliquez sur **Next**. + + EKS Add On Marketplace. + +3. Sélectionnez la dernière version par défaut ou choisissez une version alternative, si nécessaire, et cliquez sur **Next**. + + EKS Add On Marketplace Config + +4. Cliquez sur **Create**. + +Dans quelques minutes, l’opérateur Kubernetes de New Relic devrait s’activer et commencer à fonctionner. Veuillez consulter les étapes de configuration ci-dessous pour collecter et expédier les données d'observabilité de votre cluster EKS vers New Relic. + +## Provisionner le module complémentaire EKS via l'AWS CLI [#provision-cli] + +Exécutez la commande suivante pour installer le module complémentaire NewRelic, avec `--cluster-name` comme nom de votre cluster EKS. + +```bash + aws eks create-addon --cluster-name REPLACE_ME --addon-name new-relic_kubernetes-operator +``` + +Vous recevrez un résultat similaire à ce qui suit : + +```bash + { + "addon": { + "addonName": "new-relic_kubernetes-operator", + "clusterName": "newrelic-test", + "status": "CREATING", + "addonVersion": "v0.1.8-eksbuild.1", + "health": { + "issues": [] + }, + "addonArn": "arn:aws:eks:ap-northeast-2:###############:addon/kubecon2023-127/new-relic_kubernetes-operator/6cc5e7b7-d8f1-5fa0-c668-2bc9727e16b3", + "createdAt": "2023-07-27T11:47:57.023000-07:00", + "modifiedAt": "2023-07-27T11:47:57.044000-07:00", + "tags": {} + } + } +``` + +## Configurer l'opérateur Kubernetes [#configure-k8s] + +Vous pouvez confirmer que l’opérateur Kubernetes fonctionne en exécutant `kubectl get all -n newrelic` sur la CLI. Pour commencer à collecter des métriques et à les envoyer à New Relic, utilisez l'exemple de définition de ressource personnalisée (CRD) suivant : + +1. Créez un fichier `crd.yml` en utilisant les définitions ci-dessous, avec `spec.global.cluster` comme nom de votre cluster EKS et `spec.global.licensekey` comme clé de licence New Relic. + + ```yml + apiVersion: newrelic.com/v1alpha1 + kind: NRIBundle + metadata: + name: nribundle-sample + spec: + global: + cluster: "" + licenseKey: "" + lowDataMode: true + newrelic-infrastructure: + enabled: true + privileged: true + kube-state-metrics: + image: + tag: "v2.10.0" + enabled: true + kubeEvents: + enabled: true + newrelic-prometheus-agent: + enabled: true + lowDataMode: true + config: + kubernetes: + integrations_filter: + enabled: false + ``` + +2. Une fois que vous avez mis à jour la configuration souhaitée, mettez à niveau la solution avec la commande suivante : + + ``` + kubectl apply -f crd.yml -n newrelic + ``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/set-up-auto-discovery-of-aws-entities.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/set-up-auto-discovery-of-aws-entities.mdx new file mode 100644 index 00000000000..7560fb4c5ab --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/set-up-auto-discovery-of-aws-entities.mdx @@ -0,0 +1,195 @@ +--- +title: Découverte automatique de l'entité AWS +tags: + - Auto-discovery + - Discover AWS entities +metaDescription: Set up auto-discovery feature for the new and existing AWS integrations. +freshnessValidatedDate: never +translationType: machine +--- + + + Nous travaillons toujours sur cette fonctionnalité, mais nous aimerions que vous l'essayiez ! + + Cette fonctionnalité est actuellement fournie dans le cadre d'un programme d'aperçu conformément à nos [politiques de pré-sortie](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy). L'aperçu public comprend l'accès à [la nouvelle expérience Map](/docs/service-architecture-intelligence/maps/advanced-maps) et [à Transaction 360](/docs/apm/transactions/workload-performance-monitoring/transaction-workloads/), regroupés ensemble. En optant pour l'aperçu, vous avez accès aux trois fonctionnalités sans frais ; la désactivation de l'aperçu s'applique également aux trois. + + +**Auto-Discovery** est une fonctionnalité de [Advanced Compute](https://newrelic.com/pricing/compute#pricing_plan-compute) qui cartographie automatiquement votre infrastructure AWS, fournissant des informations détaillées sur les relations entre les applications et leurs ressources sous-jacentes. En activant cette fonctionnalité, vous obtenez une vue complète de votre environnement cloud , y compris la configuration actuelle et les connexions aux ressources. De plus, **Auto-Discovery** propose un tableau de bord de fiabilité pour évaluer votre infrastructure par rapport aux bonnes pratiques AWS, contribuant ainsi à une gestion et une optimisation efficaces. + +Avec **Auto-Discovery**, vous pouvez : + +* Détectez et visualisez automatiquement les relations entre les entités AWS sur [Maps](/docs/service-architecture-intelligence/maps/advanced-maps). +* Maintenez la représentation de la topologie de votre infrastructure à jour à mesure que des modifications se produisent dans votre environnement AWS. +* Affichez la configuration actuelle de vos ressources AWS. +* Évaluez la fiabilité de votre infrastructure AWS via les [tableaux de bord](/docs/service-architecture-intelligence/scorecards/getting-started) de fiabilité AWS. + +La fonctionnalité **Auto-Discovery** est disponible uniquement pour les clients **[Advanced Compute](https://newrelic.com/pricing/compute#pricing_plan-compute)** . Pour vous inscrire, accédez à **[one.newrelic.com > Administration](https://one.newrelic.com//admin-portal) > Preview & Trials** et inscrivez-vous à **New experiences: Maps, Transaction 360, and Auto-Discovery**. + +## Configurer l'intégration AWS avec la découverte automatique [#set-up-aws-integration-with-auto-discovery] + +Si vous configurez l'intégration AWS pour la première fois et souhaitez activer **Auto-Discovery**, procédez comme suit : + + + + ### Avant de commencer [#before-you-begin] + + Pour configurer l’intégration AWS, assurez-vous de disposer des éléments suivants : + + * Une [clé de licence](https://one.newrelic.com/api-keys) New Relic. + * Un compte AWS avec [des autorisations](https://docs.aws.amazon.com/ARG/latest/userguide/gettingstarted-prereqs-permissions.html) pour déployer de nouvelles ressources AWS et [des rôles IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles.html). + * Un compte New Relic avec [des autorisations](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions/#infrastructure) pour l'intégration cloud. + + + + ### Sélectionner le type de données [#select-data-type] + + 1. Connectez-vous à votre compte [New Relic](https://one.newrelic.com/) et accédez à **Infrastructure > AWS**. + 2. Pour intégrer AWS, sélectionnez un compte et cliquez sur **Set up integration**. + 3. Sélectionnez le type de données **Metrics**, **Logs** ou les deux, et continuez. + 4. Sélectionnez **Automate AWS with CloudFormation (Recommended)** et continuez. Il s’agit actuellement de la seule méthode de configuration disponible pour l’intégration log . + + + + ### Sélectionnez le type d'intégration [#select-integration-type] + + + + Si vous avez sélectionné **Metrics** comme type de données, pour configurer l'intégration, procédez comme suit : + + 1. Sélectionnez le type d'intégration métrique : + + * **[CloudWatch Metric Streams](/install/aws-cloudwatch/)** est la méthode recommandée pour créer un flux de métriques en temps réel vers New Relic. + * **[API Polling](/docs/infrastructure/amazon-integrations/connect/set-up-aws-api-polling/)** est une solution legacy pour recevoir des données AWS dans New Relic. + + 2. Donnez un nom à l'intégration sélectionnée. + + 3. **CloudWatch Metric Streams** ne prend pas en charge quelques services AWS mentionnés à l'écran. Si vous souhaitez inclure ces services, sélectionnez **Yes** et continuez à configurer l’interrogation API pour ceux-ci. + + 4. Donnez un nom à l’intégration API. + + 5. Sélectionnez les services que vous souhaitez inclure dans l’intégration et continuez. + + + + Si vous avez sélectionné **Logs** comme type de données, il existe plusieurs façons d'envoyer le log de vos services AWS vers New Relic. Sélectionnez le parcours qui correspond le mieux à vos besoins. Les instructions d'intégration et la stack CloudFormation s'adaptent à vos sélections. + + 1. Sélectionnez les récepteurs AWS : la plupart des services de log AWS sont générés dans des compartiments S3 ou des CloudWatch log groupes . Sélectionnez un ou les deux récepteurs AWS. + + 2. Sélectionnez le(s) chemin(s) d'intégration log : **Amazon Kinesis Data Firehose** est destiné au streaming de données direct et à volume élevé, et **New Relic Lambda Function** est destiné au contrôle élevé de la transformation des données avant la transmission du log. + + 3. Configurer des déclencheurs : la configuration de déclencheurs garantit que de nouveaux logs sont envoyés à New Relic chaque fois qu'un log de services AWS est envoyé à un compartiment S3 ou à un CloudWatch log groupe . Avec une seule CloudFormation,stack vous pouvez configurer jusqu'à 40 déclencheurs (compartiments S3 et/ou CloudWatch log groupes ). + + * Pour les services logs AWS stockés dans des compartiments S3, spécifiez le **nom du compartiment S3** et **le préfixe** (facultatif). + * Pour les services de log AWS stockés dans les CloudWatch log groupes , spécifiez le nom du **Log Group** et le **Filter** (facultatif). + + 4. Sélectionnez les points de terminaison d'API des logs New Relic : le système définit automatiquement le point de terminaison en fonction de la région de votre compte New Relic. + + * Pour les comptes américains, les logs sont envoyés à `https://log-api.newrelic.com/log/v1` + * Pour le compte UE, les logs sont envoyés à `https://log-api.eu.newrelic.com/log/v1` + + 5. Ajouter un attribut personnalisé : Ajoutez un attribut personnalisé pour organiser votre log et le rendre plus facile à rechercher, filtrer, analyser et analyser. + + + + + + ### Activer la découverte automatique [#enable-auto-discovery] + + Activez l’analyse pour activer Auto-Discovery de votre entité AWS et continuez. Il active l’autorisation `cloudformation:StartResourceScan` dans votre compte AWS pour analyser vos ressources AWS et découvrir les relations entre elles. + + + Par défaut, New Relic analyse toutes les régions activées dans votre compte une fois par jour. Vous pouvez [mettre à jour la fréquence d'analyse et les régions](#select-region-and-frequency) après la création de la stack , en gérant les paramètres Auto-Discovery dans New Relic One. + + + + + ### Se connecter à AWS [#connect-to-aws] + + 1. Cliquez sur **Launch your CloudFormation in AWS** pour accéder à votre AWS Console. La stack CloudFormation inclut les paramètres configurés en fonction de vos sélections dans New Relic One, donc aucune modification supplémentaire n'est nécessaire, sauf si vous souhaitez apporter des modifications. + 2. Copiez et collez votre clé de licence dans votre console AWS. + + Nous vous recommandons de stocker votre clé de licence New Relic dans **[AWS Secrets Manager](https://docs.aws.amazon.com/secretsmanager/latest/userguide/intro.html)** en gardant la variable d'environnement définie sur `true` (valeur par défaut). + + + + ### déployer la stackCloudFormation [#deploy-cloudformation-stack] + + Après avoir personnalisé les paramètres stack CloudFormation pour répondre à vos besoins, cliquez sur **Create stack**. La création des ressources de stack peut prendre plusieurs minutes et peut générer plusieurs piles, selon la façon dont vous configurez le transfert log et de métriques. Avec une seule commande de déploiement, vous pouvez créer une nouvelle stack pour transférer les logs de plusieurs ressources AWS. Si la création de la pile échoue, reportez-vous à la [procédure de dépannage](/docs/logs/troubleshooting/aws-log-integration-issues/stack-creation-fails). + + + + ### Valider les données AWS sur New Relic [#validate-aws-data] + + Une fois la nouvelle stack créée, accédez à **[New Relic](https://one.newrelic.com/) > Infrastructure > AWS** pour afficher tous les services intégrés AWS. Si un service New Relic est connecté à l'entité AWS, vous pouvez explorer les relations à partir de sa carte, y compris celles entre l'entité AWS, entre l'entité APM et entre l'entité AWS et l'entité APM. + + + +## Configurer la découverte automatique pour une intégration AWS existante [#set-up-auto-discovery-for-existing-aws-integration] + +Si vous avez déjà configuré une intégration AWS et souhaitez activer **Auto-Discovery**, procédez comme suit : + + + + ### Avant de commencer [#prerequisite-for-existing-aws-integration] + + Pour mettre à jour l’intégration AWS, assurez-vous de disposer des éléments suivants : + + * Un compte AWS avec [des autorisations](https://docs.aws.amazon.com/ARG/latest/userguide/gettingstarted-prereqs-permissions.html) pour déployer de nouvelles ressources AWS et [des rôles IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles.html). + * Un compte New Relic avec [des autorisations](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions/#infrastructure) pour l'intégration cloud. + + + + ### Modifier le compte [#edit-account] + + 1. Connectez-vous à votre compte [New Relic](https://one.newrelic.com/) et accédez à **Infrastructure > AWS**. + 2. Pour vérifier l’état d’activation Auto-Discovery de vos comptes AWS, cliquez sur **Manage Auto-Discovery**. + 3. Dans la liste des comptes, cliquez sur **Enable** pour le compte AWS dans lequel vous souhaitez le configurer. + + + + ### Mettre à jour la stackCloudFormation [#update-cloudformation-stack] + + 1. Pour mettre à jour la stack CloudFormation, dans le panneau latéral, cliquez sur **Launch Cloudformation Template**. + 2. Sur la console AWS, reconnaissez la stack CloudFormation et cliquez sur **Create stack**. + 3. Une fois la stack créée, revenez à New Relic One. + + + + ### Sélectionnez la région et la fréquence d'analyse [#select-region-and-frequency] + + Par défaut, New Relic analyse toutes les régions activées dans votre compte une fois par jour. Vous pouvez le personnaliser comme suit sur le panneau latéral : + + * Pour exécuter l'analyse pour des régions spécifiques, sélectionnez ou supprimez des régions selon vos besoins. + * Pour modifier la fréquence de l'analyse, sélectionnez **Once a Day** ou **Twice a Day**, selon vos besoins. + + + + ### Activer la découverte automatique [#enable-auto-discovery] + + Pour activer Auto-Discovery, sur l'écran de confirmation de New Relic One, cliquez sur **Save**. + + + + + + Après avoir activé Auto-Discovery, vous pouvez afficher la configuration d’une entité AWS comme suit : + + 1. Allez à **[New Relic](https://one.newrelic.com/) > All Capabilities** et sélectionnez **Amazon Web Services**. + 2. Pour afficher la configuration d’une entité AWS, sélectionnez l’entité dans la liste et cliquez sur **Configuration explorer**. + + + + + Lorsque Auto-Discovery est désactivé, vous subissez une perte d'accès à l'entité qu'il identifie et à sa configuration. Les tableaux de bord de fiabilité AWS fournissent des scores inexacts et la carte de l’infrastructure n’affiche plus les relations découvertes par Auto-Discovery. + + + Si vous souhaitez disable Auto-Discovery, suivez ces étapes : + + 1. Connectez-vous à votre compte [New Relic](https://one.newrelic.com/) et accédez à **Infrastructure > AWS**. + 2. Pour vérifier l’état d’activation de la découverte automatique de vos comptes AWS, cliquez sur **Manage Auto-Discovery**. + 3. Dans la liste des comptes, recherchez le compte dans lequel vous souhaitez désactiver Auto-Discovery. + 4. Pour modifier la configuration, cliquez sur **Edit**. + 5. Sur le panneau latéral, désactivez l’analyse. + 6. Pour désactiver Auto-Discovery, cliquez sur **Save**. + + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/set-up-aws-api-polling.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/set-up-aws-api-polling.mdx new file mode 100644 index 00000000000..5d8d98bd27c --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/set-up-aws-api-polling.mdx @@ -0,0 +1,105 @@ +--- +title: Connectez l'intégration des sondages AWS +tags: + - Integrations + - Amazon integrations + - Get started +metaDescription: 'Connect your Amazon account to New Relic, then use our infrastructure monitoring services with your AWS integrations.' +freshnessValidatedDate: never +translationType: machine +--- + +Dans certains cas, vous devrez peut-être utiliser une solution legacy pour recevoir des données AWS dans New Relic. Bien que notre méthode recommandée consiste à configurer notre intégration AWS CloudWatch Metric Streams , certaines intégrations AWS ne sont pas prises en charge par flux de métriques CloudWatch. Dans ce cas, vous pouvez déployer une flotte d'interrogation et effectuer des appels réguliers vers plusieurs API AWS individuelles pour récupérer des métriques et des métadonnées. Vous devez choisir cette méthode si vous utilisez les services AWS suivants : + +* AWS CloudTrail +* AWS Health +* AWS Trusted Advisor +* AWS X-Ray + +## sondage d'API AWS et flux de métriques CloudWatch [#polling-metricstreams] + +Pour les utilisateurs AWS qui souhaitent collecter des données sur tous les autres services, nous vous recommandons d'opter pour [AWS CloudWatch Metric Streams](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Metric-Streams.html). flux de métriques CloudWatch résout les limitations présentes dans la méthode d'interrogation de l'API : + +* L'interrogation des API nécessite d'effectuer des appels individuels à chaque service AWS, tandis que le flux de métriques CloudWatch collecte les métriques de tous les services AWS et de l'espace de nommage personnalisé à la fois. +* L'intervalle d'interrogation le plus rapide pour l'interrogation de l'API est de 5 minutes, tandis que le flux de métriques CloudWatch diffuse les métriques en moins de 2 minutes. +* AWS limite l'interrogation des API, tandis que l'intégration du flux de mesures CloudWatch élimine complètement la limitation des API. + +Consultez notre doc pour [installer une intégration New Relic flux de métriques CloudWatch ](/install/aws-cloudwatch)ou pour [migrer votre intégration de sondage API vers flux de métriques CloudWatch](/install/aws-cloudwatch/?task=migrate). + +## Configurer l'interrogation API [#set-up-api] + +Suivez ces procédures pour configurer l’interrogation API. Les deux procédures nécessitent que vous vous déplaciez entre l'UI de New Relic et votre compte AWS. + + + + Pour connecter une intégration **API Polling** supplémentaire à New Relic : + + 1. Aller à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**. Cliquez sur l’une des tuiles de service disponibles. Depuis la [console IAM](https://console.aws.amazon.com/iam/home?#/roles), cliquez sur **Roles** > **Create role** > **AWS account** > **Another AWS account**. Saisissez les éléments suivants : + + * Pour `Account ID`, utilisez `754728514883` + * Cochez la case `Require external ID` + * Pour `External ID`, saisissez votre identifiant de compte New Relic + * N'activez pas le paramètre sur `Require MFA` (authentification multifacteur) + + 2. Joindre le **Policy**: Recherchez `ReadOnlyAccess` dans la zone de texte **Permissions policies** , cochez la case correspondant à la politique nommée `ReadOnlyAccess`, puis cliquez sur **Next**. Vous pouvez également [créer votre propre politique gérée](/docs/integrations/amazon-integrations/getting-started/integrations-managed-policies) et limiter les autorisations que vous accordez à New Relic en fonction des services AWS que vous souhaitez monitorer. + + 3. Saisissez `NewRelicInfrastructure-Integrations` pour **Role name**, puis cliquez sur **Create role** pour sélectionner le rôle nouvellement créé dans la liste. Sur la page **Role summary** , sélectionnez et copiez l’intégralité **Role ARN** (requis plus tard dans cette procédure). + + 4. Configurez une politique **Budgets** en affichant le **Role summary** pour votre nouveau rôle. Ouvrez le menu déroulant **Add permissions** et cliquez sur **Create inline policy**. Ouvrez l’onglet **JSON** et ajoutez la déclaration d’autorisation suivante : + + ```json + { + "Version": "2012-10-17", + "Statement": [ + { + "Effect": "Allow", + "Action": [ + "budgets:ViewBudget" + ], + "Resource": "*" + } + ] + } + ``` + + 5. Cliquez sur **Review policy** pour saisir un nom de politique (comme `NewRelicBudget`), puis sélectionnez **Create policy**. + + 6. Revenez à l’ UI de New Relic pour saisir le nom de votre compte AWS et l’ARN du nouveau rôle que vous avez enregistré à l’étape 2. + + 7. Sélectionnez les services AWS que vous souhaitez monitorer avec l'intégration infrastructure , puis **Save**. + + Il peut falloir quelques minutes avant que de nouvelles ressources soient détectées et synthétisées en tant qu'entité. Voir [les limites du système](/docs/data-apis/manage-data/view-system-limits) d'intégration cloud pour plus d'informations. + + + + Si vous avez déjà configuré un ARN avec une politique **AmazonEC2ReadOnlyAccess** restrictive, dissociez votre intégration existante et créez un nouvel ARN avec une politique plus large. + + Suivez les instructions pour [connecter votre compte Amazon à New Relic](/docs/infrastructure/new-relic-infrastructure/data-instrumentation/amazon-aws-ec2-integration-infrastructure#connect) . Fournissez l’ARN qui contient la politique **ReadOnlyAccess** . + + Une fois votre configuration terminée, vous pouvez voir votre intégration à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**. + + + +Si vous souhaitez transférer votre log AWS depuis AWS RDS Enhanced ou AWS VPC Flow Logs, suivez ces procédures pour [envoyer le log CloudWatch avec Lambda](/docs/logs/forward-logs/aws-lambda-sending-cloudwatch-logs). + +## Connectez plusieurs comptes AWS [#connect-mulitple] + +Par défaut, l'autorisation Amazon EC2 **AmazonEC2ReadOnlyAccess** accorde à New Relic l'accès à toutes les instances EC2 du compte Amazon individuel que vous spécifiez lors des étapes de configuration. Si vous possédez plusieurs comptes AWS, suivez les étapes pour [connecter un compte AWS](#setup-individual) pour chaque compte AWS que vous souhaitez associer à New Relic. + +## Ajouter ou modifier une balise personnalisée [#custom-tags] + +Pour l'intégration d'interrogation API, si vous ne voyez aucune balise dans les quelques minutes suivant la configuration, supprimez l'intégration et réessayez les procédures de configuration. + +Vous pouvez supprimer l'intégration en allant sur \*\*[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS > **Manage services**. Supprimez l'intégration individuelle ou l'ensemble du lien de compte selon les besoins. + +Notez que toutes les intégrations ne prennent pas en charge la collecte de balises. Vous pouvez activer (ou désactiver) la collecte de balises dans les paramètres d'intégration. New Relic importe automatiquement les balises personnalisées que vous avez ajoutées ou modifiées pour vos ressources AWS. La plupart des métriques reçues via le flux de métriques CloudWatch auront [une balise personnalisée comme dimensions](/docs/integrations/amazon-integrations/aws-integrations-list/aws-metric-stream/#tags-collection). + +## Déconnectez votre intégration AWS [#disconnect] + +Vous pouvez [désactiver une ou plusieurs intégrations](/docs/infrastructure/install-infrastructure-agent/update-or-uninstall/uninstall-infrastructure-integrations/#uninstall-aws) à tout moment tout en gardant votre compte AWS connecté à New Relic. Cependant, New Relic vous recommande de ne pas désactiver monitoring EC2 ou EBS. Ces deux intégrations ajoutent des métadonnées importantes à vos instances volumes EC2 et EBS dans New Relic. + +Pour [désinstaller complètement vos services](/docs/infrastructure/new-relic-infrastructure/installation/uninstall-infrastructure-agent#unlink-aws) de l’intégration de New Relic Infrastructure, dissociez votre compte AWS. + +## Soutien régional [#availability] + +Nous ne prenons pas en charge [les régions AWS chinoises](/docs/integrations/amazon-integrations/troubleshooting/invalid-principal-error-unsupported-aws-regions). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/uninstall-aws.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/uninstall-aws.mdx new file mode 100644 index 00000000000..3aaac798d3c --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/connect/uninstall-aws.mdx @@ -0,0 +1,85 @@ +--- +title: Désinstaller l'intégration AWS +tags: + - Infrastructure + - Install AWS + - Update or uninstall +metaDescription: How to uninstall AWS integrations. +freshnessValidatedDate: never +translationType: machine +--- + +[La désinstallation de l'agent infrastructure ](/docs/infrastructure/new-relic-infrastructure/installation/uninstall-infrastructure-agent-or-integrations)ne désinstalle pas automatiquement aucune de vos [intégrationsinfrastructure ](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + +Pour désinstaller [flux de métriques AWS](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream/) ou toute autre intégration AWS, suivez les étapes ci-dessous. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ + **If you want to...** + + + + **Do this** + +
+ Désactiver l'intégration AWS flux de métriques CloudWatch + + Pour désactiver l'intégration AWS flux de métriques CloudWatch : + + 1. Depuis AWS Console, supprimez toutes les ressources requises qui ont été créées lors de la configuration de l'intégration AWS, y compris tous les flux AWS CloudWatch , le point de terminaison AWS Kinesis Data Firehouse et le bucket de sauvegarde AWS S3. Si vous avez utilisé le modèle AWS CloudFormation, suivez les étapes pour [supprimer une pile sur la console AWS CloudFormation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/cfn-console-delete-stack.html). + 2. Effectuez l’étape 1 pour chaque région AWS active où vous avez connecté AWS flux de métriques CloudWatch. + 3. Dans **Infrastructure > AWS > AWS Status Dashboard**, assurez-vous qu'aucune nouvelle mise à jour de métrique n'est ingérée dans New Relic. + 4. Suivez les étapes pour [déconnecter le compte AWS](#unlink-aws). +
+ Désactiver une ou plusieurs intégrations d'interrogation AWS + + Pour désactiver les services tout en conservant votre compte AWS lié à New Relic : + + 1. À partir de **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure**, sélectionnez **AWS > Manage services**. + 2. Depuis votre page **Edit AWS account** , décochez la case de chaque service actif que vous souhaitez désactiver. + 3. Enregistrez vos modifications. +
+ Pour déconnecter complètement votre compte AWS de New Relic, vous devez dissocier votre compte AWS. Cela désactive toutes les intégrations New Relic associées à ce compte AWS. + + 1. Allez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS > Manage services**. + + 2. Depuis votre page **Edit AWS account** , sélectionnez **Unlink this account**. + + 3. Enregistrez vos modifications. + + 4. Connectez-vous à AWS et sélectionnez [**Services > IAM > Roles**](https://console.aws.amazon.com/iam/home#roles). + + 5. Cochez la case correspondant au rôle que vous souhaitez supprimer, puis sélectionnez **Role Actions > Delete Role**. + + La dissociation de votre compte AWS désactivera la relation de confiance établie via votre ARN. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/get-started/integrations-managed-policies.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/get-started/integrations-managed-policies.mdx new file mode 100644 index 00000000000..b3117e6b8f1 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/get-started/integrations-managed-policies.mdx @@ -0,0 +1,578 @@ +--- +title: Accorder des autorisations à New Relic avec des politiques gérées par AWS +tags: + - Integrations + - Amazon integrations + - Get started +metaDescription: How to use AWS managed policies to grant New Relic permission to monitor your AWS services with infrastructure integrations. +freshnessValidatedDate: never +translationType: machine +--- + +Pour utiliser [l'intégrationinfrastructure ](/docs/infrastructure/integrations), vous devez accorder à New Relic l'autorisation de lire les données pertinentes de votre compte. Amazon Web Services (AWS) utilise des politiques gérées pour accorder ces autorisations. + +## Politique recommandée [#recommended] + + + Recommandation : accordez une [politique gérée](http://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_managed-vs-inline.html#aws-managed-policies) `ReadOnlyAccess` à l'échelle du compte depuis AWS. AWS met automatiquement à jour cette politique lorsque de nouveaux services sont ajoutés ou que des services existants sont modifiés. L'intégration de l'infrastructure New Relic a été conçue pour fonctionner avec `ReadOnlyAccess` politiques. Pour obtenir des instructions, consultez [Connecter l’intégration AWS à infrastructure](/docs/infrastructure/infrastructure-integrations/getting-started/connect-aws-integrations-infrastructure). + + +**Exception:** L'intégration [de Trusted Advisor](/docs/integrations/amazon-integrations/aws-integrations-list/aws-trusted-advisor-integration) n'est pas couverte par la politique `ReadOnlyAccess` . Cela nécessite la politique gérée supplémentaire `AWSSupportAccess` . C'est également la seule intégration qui nécessite des autorisations d'accès intégral (`support:*`) pour fonctionner correctement. Nous avons informé Amazon de cette limitation. Une fois le problème résolu, nous mettrons à jour la documentation avec des autorisations plus spécifiques requises pour cette intégration. + +## Politique facultative [#optional] + +Si vous ne pouvez pas utiliser la [politique gérée](http://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_managed-vs-inline.html#aws-managed-policies) `ReadOnlyAccess` d'AWS, vous pouvez créer votre propre politique personnalisée en fonction de la [liste des autorisations](/docs/integrations/amazon-integrations/getting-started/integrations-managed-policies#list-permissions). Cela vous permet de spécifier les autorisations optimales requises pour récupérer des données d'AWS pour chaque intégration. Bien que cette option soit disponible, elle n'est pas recommandée car elle doit être mise à jour manuellement lorsque vous ajoutez ou modifiez votre intégration. + + + New Relic n'a aucun moyen d'identifier les problèmes liés aux autorisations personnalisées. Si vous choisissez de créer une politique personnalisée, il est de votre responsabilité de la maintenir et de vous assurer que les données appropriées sont collectées. + + +Il existe deux manières de configurer votre politique personnalisée : vous pouvez soit utiliser [notre modèle CloudFormation](#cf-template), soit créer le vôtre vous-même en [ajoutant les autorisations dont vous avez besoin](#list-permissions). + +### Option 1 : Utilisez notre modèle CloudFormation [#cf-template] + +Notre modèle CloudFormation contient toutes les autorisations pour toutes nos intégrations AWS. + +Un utilisateur différent de `root` peut être utilisé dans la politique gérée. + + + + ```yml + AWSTemplateFormatVersion: 2010-09-09 + Outputs: + NewRelicRoleArn: + Description: NewRelicRole to monitor AWS Lambda + Value: !GetAtt + - NewRelicIntegrationsTemplate + - Arn + Parameters: + NewRelicAccountNumber: + Type: String + Description: The Newrelic account number to send data + AllowedPattern: '[0-9]+' + Resources: + NewRelicIntegrationsTemplate: + Type: 'AWS::IAM::Role' + Properties: + RoleName: !Sub NewRelicTemplateTest + AssumeRolePolicyDocument: + Version: 2012-10-17 + Statement: + - Effect: Allow + Principal: + AWS: !Sub 'arn:aws:iam::754728514883:root' + Action: 'sts:AssumeRole' + Condition: + StringEquals: + 'sts:ExternalId': !Ref NewRelicAccountNumber + Policies: + - PolicyName: NewRelicIntegrations + PolicyDocument: + Version: 2012-10-17 + Statement: + - Effect: Allow + Action: + - 'elasticloadbalancing:DescribeLoadBalancers' + - 'elasticloadbalancing:DescribeTargetGroups' + - 'elasticloadbalancing:DescribeTags' + - 'elasticloadbalancing:DescribeLoadBalancerAttributes' + - 'elasticloadbalancing:DescribeListeners' + - 'elasticloadbalancing:DescribeRules' + - 'elasticloadbalancing:DescribeTargetGroupAttributes' + - 'elasticloadbalancing:DescribeInstanceHealth' + - 'elasticloadbalancing:DescribeLoadBalancerPolicies' + - 'elasticloadbalancing:DescribeLoadBalancerPolicyTypes' + - 'apigateway:GET' + - 'autoscaling:DescribeLaunchConfigurations' + - 'autoscaling:DescribeAutoScalingGroups' + - 'autoscaling:DescribePolicies' + - 'autoscaling:DescribeTags' + - 'autoscaling:DescribeAccountLimits' + - 'budgets:ViewBudget' + - 'cloudfront:ListDistributions' + - 'cloudfront:ListStreamingDistributions' + - 'cloudfront:ListTagsForResource' + - 'cloudtrail:LookupEvents' + - 'config:BatchGetResourceConfig' + - 'config:ListDiscoveredResources' + - 'dynamodb:DescribeLimits' + - 'dynamodb:ListTables' + - 'dynamodb:DescribeTable' + - 'dynamodb:ListGlobalTables' + - 'dynamodb:DescribeGlobalTable' + - 'dynamodb:ListTagsOfResource' + - 'ec2:DescribeVolumeStatus' + - 'ec2:DescribeVolumes' + - 'ec2:DescribeVolumeAttribute' + - 'ec2:DescribeInstanceStatus' + - 'ec2:DescribeInstances' + - 'ec2:DescribeVpnConnections' + - 'ecs:ListServices' + - 'ecs:DescribeServices' + - 'ecs:DescribeClusters' + - 'ecs:ListClusters' + - 'ecs:ListTagsForResource' + - 'ecs:ListContainerInstances' + - 'ecs:DescribeContainerInstances' + - 'elasticfilesystem:DescribeMountTargets' + - 'elasticfilesystem:DescribeFileSystems' + - 'elasticache:DescribeCacheClusters' + - 'elasticache:ListTagsForResource' + - 'es:ListDomainNames' + - 'es:DescribeElasticsearchDomain' + - 'es:DescribeElasticsearchDomains' + - 'es:ListTags' + - 'elasticbeanstalk:DescribeEnvironments' + - 'elasticbeanstalk:DescribeInstancesHealth' + - 'elasticbeanstalk:DescribeConfigurationSettings' + - 'elasticloadbalancing:DescribeLoadBalancers' + - 'elasticmapreduce:ListInstances' + - 'elasticmapreduce:ListClusters' + - 'elasticmapreduce:DescribeCluster' + - 'elasticmapreduce:ListInstanceGroups' + - 'health:DescribeAffectedEntities' + - 'health:DescribeEventDetails' + - 'health:DescribeEvents' + - 'iam:ListSAMLProviders' + - 'iam:ListOpenIDConnectProviders' + - 'iam:ListServerCertificates' + - 'iam:GetAccountAuthorizationDetails' + - 'iam:ListVirtualMFADevices' + - 'iam:GetAccountSummary' + - 'iot:ListTopicRules' + - 'iot:GetTopicRule' + - 'iot:ListThings' + - 'firehose:DescribeDeliveryStream' + - 'firehose:ListDeliveryStreams' + - 'kinesis:ListStreams' + - 'kinesis:DescribeStream' + - 'kinesis:ListTagsForStream' + - 'rds:ListTagsForResource' + - 'rds:DescribeDBInstances' + - 'rds:DescribeDBClusters' + - 'redshift:DescribeClusters' + - 'redshift:DescribeClusterParameters' + - 'route53:ListHealthChecks' + - 'route53:GetHostedZone' + - 'route53:ListHostedZones' + - 'route53:ListResourceRecordSets' + - 'route53:ListTagsForResources' + - 's3:GetLifecycleConfiguration' + - 's3:GetBucketTagging' + - 's3:ListAllMyBuckets' + - 's3:GetBucketWebsite' + - 's3:GetBucketLogging' + - 's3:GetBucketCORS' + - 's3:GetBucketVersioning' + - 's3:GetBucketAcl' + - 's3:GetBucketNotification' + - 's3:GetBucketPolicy' + - 's3:GetReplicationConfiguration' + - 's3:GetMetricsConfiguration' + - 's3:GetAccelerateConfiguration' + - 's3:GetAnalyticsConfiguration' + - 's3:GetBucketLocation' + - 's3:GetBucketRequestPayment' + - 's3:GetEncryptionConfiguration' + - 's3:GetInventoryConfiguration' + - 'ses:ListConfigurationSets' + - 'ses:GetSendQuota' + - 'ses:DescribeConfigurationSet' + - 'ses:ListReceiptFilters' + - 'ses:ListReceiptRuleSets' + - 'ses:DescribeReceiptRule' + - 'ses:DescribeReceiptRuleSet' + - 'sns:GetTopicAttributes' + - 'sns:ListTopics' + - 'sqs:ListQueues' + - 'sqs:ListQueueTags' + - 'sqs:GetQueueAttributes' + - 'tag:GetResources' + - 'ec2:DescribeInternetGateways' + - 'ec2:DescribeVpcs' + - 'ec2:DescribeNatGateways' + - 'ec2:DescribeVpcEndpoints' + - 'ec2:DescribeSubnets' + - 'ec2:DescribeNetworkAcls' + - 'ec2:DescribeVpcAttribute' + - 'ec2:DescribeRouteTables' + - 'ec2:DescribeSecurityGroups' + - 'ec2:DescribeVpcPeeringConnections' + - 'ec2:DescribeNetworkInterfaces' + - 'lambda:GetAccountSettings' + - 'lambda:ListFunctions' + - 'lambda:ListAliases' + - 'lambda:ListTags' + - 'lambda:ListEventSourceMappings' + - 'cloudwatch:GetMetricStatistics' + - 'cloudwatch:ListMetrics' + - 'cloudwatch:GetMetricData' + - 'support:*' + Resource: '*' + ``` + + + +### Option 2 : ajouter manuellement des autorisations [#list-permissions] + +Pour créer votre propre politique à l’aide des autorisations disponibles : + +1. [Ajoutez les autorisations pour l'intégration **all** ](#all-permissions). +2. Ajoutez des autorisations spécifiques à l’intégration dont vous avez besoin + +Les autorisations suivantes sont utilisées par New Relic pour récupérer des données pour une intégration AWS spécifique : + + + + + Si une intégration n'est pas répertoriée sur cette page, ces autorisations sont tout ce dont vous avez besoin. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Toute l'intégration + + Autorisations +
+ CloudWatch + + `cloudwatch:GetMetricStatistics` + + `cloudwatch:ListMetrics` + + `cloudwatch:GetMetricData` +
+ Configuration de l'API + + `config:BatchGetResourceConfig` + + `config:ListDiscoveredResources` +
+ API de balises de ressources + + `tag:GetResources` +
+
+ + + Autorisations [ALB](/docs/aws-alb-integration) supplémentaires : + + * `elasticloadbalancing:DescribeLoadBalancers` + * `elasticloadbalancing:DescribeTargetGroups` + * `elasticloadbalancing:DescribeTags` + * `elasticloadbalancing:DescribeLoadBalancerAttributes` + * `elasticloadbalancing:DescribeListeners` + * `elasticloadbalancing:DescribeRules` + * `elasticloadbalancing:DescribeTargetGroupAttributes` + * `elasticloadbalancing:DescribeInstanceHealth` + * `elasticloadbalancing:DescribeLoadBalancerPolicies` + * `elasticloadbalancing:DescribeLoadBalancerPolicyTypes` + + + + Autorisations supplémentaires [de la passerelle API](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-api-gateway-monitoring-integration) : + + * `apigateway:GET` + + + + [Autorisations de mise à l'échelle automatique supplémentaires :](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-auto-scaling-monitoring-integration) + + * `autoscaling:DescribeLaunchConfigurations` + * `autoscaling:DescribeAutoScalingGroups` + * `autoscaling:DescribePolicies` + * `autoscaling:DescribeTags` + * `autoscaling:DescribeAccountLimits` + + + + [Autorisation de facturation supplémentaire :](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-billing-integration) + + * `budgets:ViewBudget` + + + + Autorisations [CloudFront](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-cloudfront-integration) supplémentaires : + + * `cloudfront:ListDistributions` + * `cloudfront:ListStreamingDistributions` + * `cloudfront:ListTagsForResource` + + + + Autorisations [CloudTrail](/docs/integrations/amazon-integrations/aws-integrations-list/aws-cloudtrail-monitoring-integration) supplémentaires : + + * `cloudtrail:LookupEvents` + + + + Autorisations [DynamoDB](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-dynamodb-integration) supplémentaires : + + * `dynamodb:DescribeLimits` + * `dynamodb:ListTables` + * `dynamodb:DescribeTable` + * `dynamodb:ListGlobalTables` + * `dynamodb:DescribeGlobalTable` + * `dynamodb:ListTagsOfResource` + + + + Autorisations [EBS](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-ebs-integration) supplémentaires : + + * `ec2:DescribeVolumeStatus` + * `ec2:DescribeVolumes` + * `ec2:DescribeVolumeAttribute` + + + + Autorisations [EC2](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-ec2-integration) supplémentaires : + + * `ec2:DescribeInstanceStatus` + * `ec2:DescribeInstances` + + + + Autorisations [ECS/ECR](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-ecsecr-integration) supplémentaires : + + * `ecs:ListServices` + * `ecs:DescribeServices` + * `ecs:DescribeClusters` + * `ecs:ListClusters` + * `ecs:ListTagsForResource` + * `ecs:ListContainerInstances` + * `ecs:DescribeContainerInstances` + + + + Autorisations [EFS](/docs/integrations/amazon-integrations/aws-integrations-list/aws-efs-monitoring-integration) supplémentaires : + + * `elasticfilesystem:DescribeMountTargets` + * `elasticfilesystem:DescribeFileSystems` + + + + Autorisations [ElastiCache](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-elasticache-integration) supplémentaires : + + * `elasticache:DescribeCacheClusters` + * `elasticache:ListTagsForResource` + + + + Autorisations [ElasticSearch](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-elasticsearch-integration) supplémentaires : + + * `es:ListDomainNames` + * `es:DescribeElasticsearchDomain` + * `es:DescribeElasticsearchDomains` + * `es:ListTags` + + + + Autorisations [Elastic Beanstalk](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elastic-beanstalk-monitoring-integration) supplémentaires : + + * `elasticbeanstalk:DescribeEnvironments` + * `elasticbeanstalk:DescribeInstancesHealth` + * `elasticbeanstalk:DescribeConfigurationSettings` + + + + Autorisations [ELB](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-elb-integration) supplémentaires : + + * `elasticloadbalancing:DescribeLoadBalancers` + + + + Autorisations [EMR](/docs/aws-emr-monitoring-integration) supplémentaires : + + * `elasticmapreduce:ListInstances` + * `elasticmapreduce:ListClusters` + * `elasticmapreduce:DescribeCluster` + * `elasticmapreduce:ListInstanceGroups` + * `elasticmapreduce:ListInstanceFleets` + + + + Autorisations [de santé](/docs/aws-health-integration) supplémentaires : + + * `health:DescribeAffectedEntities` + * `health:DescribeEventDetails` + * `health:DescribeEvents` + + + + Autorisations [IAM](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-iam-integration) supplémentaires : + + * `iam:ListSAMLProviders` + * `iam:ListOpenIDConnectProviders` + * `iam:ListServerCertificates` + * `iam:GetAccountAuthorizationDetails` + * `iam:ListVirtualMFADevices` + * `iam:GetAccountSummary` + + + + Autorisations [IoT](/docs/aws-iot-monitoring-integration) supplémentaires : + + * `iot:ListTopicRules` + * `iot:GetTopicRule` + * `iot:ListThings` + + + + Autorisations supplémentaires [pour Kinesis Firehose](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-kinesis-firehose-integration) : + + * `firehose:DescribeDeliveryStream` + * `firehose:ListDeliveryStreams` + + + + Autorisations supplémentaires [pour Kinesis Streams](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-kinesis-integration) : + + * `kinesis:ListStreams` + * `kinesis:DescribeStream` + * `kinesis:ListTagsForStream` + + + + Autorisations [Lambda](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-lambda-integration) supplémentaires : + + * `lambda:GetAccountSettings` + * `lambda:ListFunctions` + * `lambda:ListAliases` + * `lambda:ListTags` + * `lambda:ListEventSourceMappings` + + + + Autorisations [RDS](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-rds-integration) supplémentaires et [RDS Enhanced Monitoring](/docs/aws-rds-enhanced-monitoring-integration) : + + * `rds:ListTagsForResource` + * `rds:DescribeDBInstances` + * `rds:DescribeDBClusters` + + + + Autorisations [Redshift](/docs/aws-redshift-integration) supplémentaires : + + * `redshift:DescribeClusters` + * `redshift:DescribeClusterParameters` + + + + Autorisations supplémentaires pour [la Route 53](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-route-53-integration) : + + * `route53:ListHealthChecks` + * `route53:GetHostedZone` + * `route53:ListHostedZones` + * `route53:ListResourceRecordSets` + * `route53:ListTagsForResources` + + + + Autorisations [S3](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-s3-integration) supplémentaires : + + * `s3:GetLifecycleConfiguration` + * `s3:GetBucketTagging` + * `s3:ListAllMyBuckets` + * `s3:GetBucketWebsite` + * `s3:GetBucketLogging` + * `s3:GetBucketCORS` + * `s3:GetBucketVersioning` + * `s3:GetBucketAcl` + * `s3:GetBucketNotification` + * `s3:GetBucketPolicy` + * `s3:GetReplicationConfiguration` + * `s3:GetMetricsConfiguration` + * `s3:GetAccelerateConfiguration` + * `s3:GetAnalyticsConfiguration` + * `s3:GetBucketLocation` + * `s3:GetBucketRequestPayment` + * `s3:GetEncryptionConfiguration` + * `s3:GetInventoryConfiguration` + + + + Autorisations [SES](/docs/integrations/amazon-integrations/aws-integrations-list/aws-simple-email-service-ses-monitoring-integration) supplémentaires : + + * `ses:ListConfigurationSets` + * `ses:GetSendQuota` + * `ses:DescribeConfigurationSet` + * `ses:ListReceiptFilters` + * `ses:ListReceiptRuleSets` + * `ses:DescribeReceiptRule` + * `ses:DescribeReceiptRuleSet` + + + + Autorisations [SNS](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-sns-integration) supplémentaires : + + * `sns:GetTopicAttributes` + * `sns:ListTopics` + + + + Autorisations [SQS](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-sqs-integration) supplémentaires : + + * `sqs:ListQueues` + * `sqs:GetQueueAttributes` + * `sqs:ListQueueTags` + + + + Autorisations supplémentaires [de Trusted Advisor](/docs/integrations/amazon-integrations/aws-integrations-list/aws-trusted-advisor-integration) : + + * `support:*` + + Voir également la note sur l’intégration de Trusted Advisor et [les politiques recommandées](#recommended). + + + + Autorisations [VPC](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-vpc-integration) supplémentaires : + + * `ec2:DescribeInternetGateways` + * `ec2:DescribeVpcs` + * `ec2:DescribeNatGateways` + * `ec2:DescribeVpcEndpoints` + * `ec2:DescribeSubnets` + * `ec2:DescribeNetworkAcls` + * `ec2:DescribeVpcAttribute` + * `ec2:DescribeRouteTables` + * `ec2:DescribeSecurityGroups` + * `ec2:DescribeVpcPeeringConnections` + * `ec2:DescribeNetworkInterfaces` + * `ec2:DescribeVpnConnections` + + + + Autorisations supplémentaires [de monitoring de X-Ray](/docs/integrations/amazon-integrations/aws-integrations-list/aws-x-ray-monitoring-integration) : + + * `xray:BatchGet*` + * `xray:Get*` + +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx new file mode 100644 index 00000000000..33d5abfe5a4 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx @@ -0,0 +1,46 @@ +--- +title: Introduction à l'intégration AWS +tags: + - Integrations + - Amazon integrations + - Get started +metaDescription: Amazon integrations let you monitor your AWS data in several New Relic features. +freshnessValidatedDate: '2024-09-20T00:00:00.000Z' +translationType: machine +--- + +New Relic propose plusieurs méthodes pour collecter des données de performances sur votre environnement Amazon Web Services (AWS). Après avoir connecté New Relic à AWS, vous pouvez accéder à la télémétrie AWS de votre système, vous permettant de monitorer de près l'état de votre stack AWS. Notre solution d'observabilité AWS prend en charge [l'intégration Amazon flux de métriques CloudWatch ](/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations/#monitor-aws)pour obtenir des métriques, et [le log AWS des services de transfert vers New Relic](/install/aws-logs/) pour se connecter à New Relic. Ce document décrit comment démarrer avec monitoring AWS et fournit un aperçu des coûts AWS. + +## Commencez par l'intégration de flux de métriques CloudWatch [#monitor-aws] + +Notre solution d'observabilité AWS est l'intégration Amazon flux de métriques CloudWatch , qui collecte des données sur l'ensemble de votre stack AWS avec [Amazon flux de métriques CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Metric-Streams.html). Pour la majorité des cas d'utilisation, vous commencez monitoring votre stack AWS en [installant notre intégration Amazon flux de métriques CloudWatch ](/install/aws-cloudwatch). + +Notre intégration de flux de métriques CloudWatch fournit les meilleures données sur votre stack AWS, mais si vous utilisez [une intégration non prise en charge par flux de métriques CloudWatch](/docs/infrastructure/amazon-integrations/connect/connect-aws-new-relic-infrastructure-monitoring/#integrations-not-replaced-streams), vous devrez peut-être utiliser notre solution d'interrogation d'API legacy . Si vous utilisez actuellement l'interrogation API pour l'intégration prise en charge, nous vous recommandons [de migrer vos données vers Amazon flux de métriques CloudWatch](/install/aws-cloudwatch/?task=migrate). + + + Si votre stack AWS a des besoins réglementaires spécifiques pour les agences fédérales, étatiques et locales des États-Unis, ou si vous êtes un établissement d'enseignement, [suivez nos procédures pour AWS GovCloud](/docs/infrastructure/amazon-integrations/connect/connect-aws-govcloud-new-relic). + + +## Collecter des données sur les instances EC2 et Amazon EKS [#additional-tools] + +Notre intégration Amazon flux de métriques CloudWatch vous permet de collecter des données sur vos instances EC2 et vos environnements Amazon Elastic Kubernetes Service (EKS). Si vous souhaitez des données plus granulaires, vous pouvez installer une intégration supplémentaire en plus de l'intégration de flux de métriques CloudWatch pour une visibilité plus approfondie. + +* Vous pouvez monitorer vos instances EC2 en [installant l'agent infrastructure sur vos hôtes EC2](/docs/infrastructure/amazon-integrations/connect/ec2-quickstart), ou en [assignant le distributeur AWS système Manager pour installer l'agent infrastructure pour vous](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-sys-dist). +* Pour monitorer votre cluster Kubernetes, [suivez nos procédures pour installer le module complémentaire New Relic EKS](/docs/infrastructure/amazon-integrations/connect/eks-add-on). + +## Calcul des coûts d'intégration AWS [#aws-billing] + +Cette section vous dirige vers les documents AWS pertinents qui expliquent comment notre intégration affecte votre facturation AWS. + +* La [page Tarification AWS CloudWatch ](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Metric-Streams.html)définit la tarification AWS flux de métriques CloudWatch en fonction du nombre de mises à jour de métriques. +* Nous utilisons parfois AWS Kinesis Data Firehose comme méthode de livraison d'AWS vers New Relic. Nous vous recommandons donc de consulter la [page de tarification d'AWS Firehose](https://aws.amazon.com/kinesis/data-firehose/pricing/). +* Lorsque vous activez AWS Config pour enrichir les métriques CloudWatch avec des métadonnées de ressources, vous êtes facturé en fonction du nombre d'éléments de configuration enregistrés. Consultez la [page de tarification d'AWS Config](https://aws.amazon.com/config/pricing/) pour plus de détails. +* [L'API de balise AWS Resource Groups](https://docs.aws.amazon.com/resourcegroupstagging/latest/APIReference/overview.html) enrichit les métriques avec une balise personnalisée définie dans les ressources AWS associées. Cela affecte à la fois les flux de sondage et de métrique. + +New Relic utilise l'API Amazon CloudWatch pour capturer des données sur les services AWS lorsque vous utilisez l'intégration d'interrogation API au lieu du flux de métriques CloudWatch. Certaines situations peuvent augmenter le nombre d'appels à l'API CloudWatch pour dépasser les limites **1 million free** accordées par AWS et [augmenter votre facture CloudWatch](/docs/infrastructure/amazon-integrations/troubleshooting/cloudwatch-billing-increase). Cela peut se produire lorsque vous activez une intégration supplémentaire via l'interrogation API, ajoutez des ressources AWS à ces intégrations ou faites évoluer ces intégrations sur plusieurs régions. + +AWS propose monitoring améliorée pour certains de ses services qui permet d'obtenir davantage de mesures à une fréquence plus élevée. Vous pouvez consulter [les coûts monitoring améliorée RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_Monitoring.OS.overview.html#USER_Monitoring.OS.cost) pour plus d'informations. + +## Disponibilité régionale [#region-availability] + +La plupart des services AWS proposent un point de terminaison régional pour réduire la latence des données entre les ressources cloud et les applications. New Relic peut obtenir des données monitoring à partir de services et de points de terminaison situés dans toutes [les régions AWS,](http://docs.aws.amazon.com/general/latest/gr/rande.html) à l'exception de la Chine. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/manage-aws-data/aws-integrations-metrics.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/manage-aws-data/aws-integrations-metrics.mdx new file mode 100644 index 00000000000..692d49fe8d7 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/manage-aws-data/aws-integrations-metrics.mdx @@ -0,0 +1,18186 @@ +--- +title: Métriques d'intégration AWS +tags: + - Integrations + - Amazon integrations + - Get started +freshnessValidatedDate: never +translationType: machine +--- + +Vous pouvez configurer une condition d'alerte ou interroger vos données sur la plateforme New Relic lorsque vous êtes intégré à AWS. Ce document décrit comment nous stockons les métriques dimensionnelles AWS afin que vous puissiez créer des alertes et interroger vos données. + +Si vous ne l'avez pas encore fait, nous vous recommandons d'installer ou de migrer vers l'[intégration AWS CloudWatch Metric Streams](/docs/integrations/amazon-integrations/aws-integrations-list/aws-metric-stream/) pour ingérer les métriques des services AWS. Si vous utilisez l'interrogation API pour collecter vos données AWS, vous pouvez consulter les métriques que nous collectons pour chaque intégration dans notre section [Métriques d'interrogation API](#aws-metrics-table) . + +## requête, stockage métrique et modélisation [#query-experience] + +Nous avons mappé les métriques du cloud d'intégration individuel à la nouvelle modélisation d'AWS CloudWatch Metric Streams. Vous pouvez utiliser l'une ou l'autre des conventions de dénomination métriques et vos alertes, votre dashboard et vos requêtes continueront de fonctionner. Gardez à l'esprit que : + +* Toutes les métriques provenant du flux métrique ont les attributs `aws.MetricStreamArn` et `collector.name = 'cloudwatch-metric-streams'` . +* Les métriques provenant d'AWS CloudWatch sont stockées sous forme de métriques dimensionnelles de type `summary`. + +Vous pouvez en savoir plus sur la manière dont New Relic stocke les métriques AWS en tant que métriques dimensionnelles ci-dessous : + +* La convention de dénomination dimensionnelle métrique explique comment New Relic met à jour l'espace de nommage AWS dans notre backend. +* Métriques avec plusieurs combinaisons de dimensions décrit comment utiliser des agrégations de requêtes pour analyser des métriques avec plusieurs dimensions +* Les métriques avec le suffixe `+ dimension` incluent un tableau de toutes les métriques qui sont suffixées par `.by + dimensionName`. + + + + Nous stockons les métriques AWS dans New Relic sous forme [de métriques dimensionnelles](/docs/telemetry-data-platform/ingest-manage-data/understand-data/new-relic-data-types/#dimensional-metrics). New Relic conserve la casse d'origine de la métrique AWS d'origine, mais ajoute le préfixe `aws` en minuscules pour désigner l'espace de nommage AWS. Par exemple: + + * `aws.ec2.CPUUtilization` + * `aws.s3.5xxErrors` + * `aws.sns.NumberOfMessagesPublished` + + Nous remplaçons également toutes les instances de `/` par `.` dans le préfixe : + + * `AWS/EC2` apparaît comme `aws.ec2` + * `AWS/ApplicationELB` apparaît comme `aws.applicationelb` + + Si la ressource à laquelle appartient la métrique possède un préfixe d'espace de nommage spécifique, nous conservons ce préfixe d'espace de nommage mais ajoutons toujours le préfixe `aws` : + + * `aws.Region` + * `aws.s3.BucketName` + + Pour plus d'informations sur l'espace de nommage pris en charge par AWS, consultez le [site Web de documentationCloudWatch ](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/aws-services-cloudwatch-metrics.html). + + + + Une métrique est définie par son nom et ses différentes dimensions. Lorsqu'une métrique particulière comporte plusieurs dimensions différentes, elles seront ingérées en tant que série chronologique individuelle. Cette tendance peut entraîner l’apparition du même nom de métrique dans plusieurs métriques avec différentes combinaisons de dimensions. Par exemple: + + * `aws.apigateway.4XXError` avec les dimensions `aws.apigateway.ApiName` et `aws.apigateway.Stage`. + * `aws.apigateway.4XXError` avec des dimensions `aws.apigateway.ApiName`. + + Certaines agrégations comme `sum()` ou `count()` renverront des résultats dupliqués si la combinaison de dimensions correcte n'est pas spécifiée. Pour éviter que certaines agrégations telles que `sum()` ou `count()` correspondent aux deux métriques en même temps, filtrez les dimensions avec `IS NULL` ou `IS NOT NULL`. + + Par exemple, cette requête renverra des résultats dupliqués pour les deux métriques en même temps : + + ```sql + SELECT sum(aws.apigateway.4XXError) FROM METRIC + ``` + + Pour faire correspondre uniquement les métriques avec la dimension `ApiName` , ajoutez `IS NULL`: + + ```sql + SELECT sum(aws.apigateway.4XXError) FROM METRIC WHERE aws.apigateway.Stage IS NULL + ``` + + Pour faire correspondre uniquement les métriques avec 2 dimensions, ajoutez `IS NOT NULL`: + + ```sql + SELECT sum(aws.apigateway.4XXError) FROM METRIC WHERE aws.apigateway.ApiName IS NOT NULL and aws.apigateway.Stage IS NOT NULL + ``` + + + + Pour des raisons historiques, nous suffixons certaines métriques qui apparaissent par paires. Par exemple, si une métrique possède une dimension mais pas l’autre, nous utilisons le suffixe `by + dimension` sur la métrique avec la dimension. Par exemple: + + * `aws.lambda.Duration` avec les dimensions `aws.lambda.FunctionName` est mappé à `aws.lambda.Duration.byFunction` + * `aws.lambda.Duration` n'a pas de dimensions, donc reste le même + + Nous n'ajoutons plus ces modélisations, mais nous nous engageons à conserver toutes les nouvelles métriques avec leur nom AWS d'origine, tel que défini par la règle générale ci-dessus. Voici une liste complète de toutes les métriques qui sont suffixées par `.by + dimensionName`: + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom métrique d'origine + + Nom de dimension d'origine + + Nom métrique suffixé +
+ `aws.apigateway.4XXError` + + `Api` + + `aws.apigateway.4XXError.byApi` +
+ `aws.apigateway.4XXError` + + `ResourceWithMetrics` + + `aws.apigateway.4XXError.byResourceWithMetrics` +
+ `aws.apigateway.4XXError` + + `Stage` + + `aws.apigateway.4XXError.byStage` +
+ `aws.apigateway.5XXError` + + `Api` + + `aws.apigateway.5XXError.byApi` +
+ `aws.apigateway.5XXError` + + `ResourceWithMetrics` + + `aws.apigateway.5XXError.byResourceWithMetrics` +
+ `aws.apigateway.5XXError` + + `Stage` + + `aws.apigateway.5XXError.byStage` +
+ `aws.apigateway.CacheHitCount` + + `Api` + + `aws.apigateway.CacheHitCount.byApi` +
+ `aws.apigateway.CacheHitCount` + + `ResourceWithMetrics` + + `aws.apigateway.CacheHitCount.byResourceWithMetrics` +
+ `aws.apigateway.CacheHitCount` + + `Stage` + + `aws.apigateway.CacheHitCount.byStage` +
+ `aws.apigateway.CacheMissCount` + + `Api` + + `aws.apigateway.CacheMissCount.byApi` +
+ `aws.apigateway.CacheMissCount` + + `ResourceWithMetrics` + + `aws.apigateway.CacheMissCount.byResourceWithMetrics` +
+ `aws.apigateway.CacheMissCount` + + `Stage` + + `aws.apigateway.CacheMissCount.byStage` +
+ `aws.apigateway.Count` + + `Api` + + `aws.apigateway.Count.byApi` +
+ `aws.apigateway.Count` + + `ResourceWithMetrics` + + `aws.apigateway.Count.byResourceWithMetrics` +
+ `aws.apigateway.Count` + + `Stage` + + `aws.apigateway.Count.byStage` +
+ `aws.apigateway.IntegrationLatency` + + `Api` + + `aws.apigateway.IntegrationLatency.byApi` +
+ `aws.apigateway.IntegrationLatency` + + `ResourceWithMetrics` + + `aws.apigateway.IntegrationLatency.byResourceWithMetrics` +
+ `aws.apigateway.IntegrationLatency` + + `Stage` + + `aws.apigateway.IntegrationLatency.byStage` +
+ `aws.apigateway.Latency` + + `Api` + + `aws.apigateway.Latency.byApi` +
+ `aws.apigateway.Latency` + + `ResourceWithMetrics` + + `aws.apigateway.Latency.byResourceWithMetrics` +
+ `aws.apigateway.Latency` + + `Stage` + + `aws.apigateway.Latency.byStage` +
+ `aws.applicationelb.RequestCount` + + `Alb` + + `aws.applicationelb.RequestCount.byAlb` +
+ `aws.applicationelb.RequestCount` + + `TargetGroup` + + `aws.applicationelb.RequestCount.byTargetGroup` +
+ `aws.docdb.BackupRetentionPeriodStorageUsed` + + `Cluster` + + `aws.docdb.BackupRetentionPeriodStorageUsed.byCluster` +
+ `aws.docdb.BackupRetentionPeriodStorageUsed` + + `ClusterByRole` + + `aws.docdb.BackupRetentionPeriodStorageUsed.byClusterByRole` +
+ `aws.docdb.BackupRetentionPeriodStorageUsed` + + `Instance` + + `aws.docdb.BackupRetentionPeriodStorageUsed.byInstance` +
+ `aws.docdb.BufferCacheHitRatio` + + `Cluster` + + `aws.docdb.BufferCacheHitRatio.byCluster` +
+ `aws.docdb.BufferCacheHitRatio` + + `ClusterByRole` + + `aws.docdb.BufferCacheHitRatio.byClusterByRole` +
+ `aws.docdb.BufferCacheHitRatio` + + `Instance` + + `aws.docdb.BufferCacheHitRatio.byInstance` +
+ `aws.docdb.CPUUtilization` + + `Cluster` + + `aws.docdb.CPUUtilization.byCluster` +
+ `aws.docdb.CPUUtilization` + + `ClusterByRole` + + `aws.docdb.CPUUtilization.byClusterByRole` +
+ `aws.docdb.CPUUtilization` + + `Instance` + + `aws.docdb.CPUUtilization.byInstance` +
+ `aws.docdb.DatabaseConnections` + + `Cluster` + + `aws.docdb.DatabaseConnections.byCluster` +
+ `aws.docdb.DatabaseConnections` + + `ClusterByRole` + + `aws.docdb.DatabaseConnections.byClusterByRole` +
+ `aws.docdb.DatabaseConnections` + + `Instance` + + `aws.docdb.DatabaseConnections.byInstance` +
+ `aws.docdb.DBClusterReplicaLagMaximum` + + `Cluster` + + `aws.docdb.DBClusterReplicaLagMaximum.byCluster` +
+ `aws.docdb.DBClusterReplicaLagMaximum` + + `ClusterByRole` + + `aws.docdb.DBClusterReplicaLagMaximum.byClusterByRole` +
+ `aws.docdb.DBClusterReplicaLagMaximum` + + `Instance` + + `aws.docdb.DBClusterReplicaLagMaximum.byInstance` +
+ `aws.docdb.DBClusterReplicaLagMinimum` + + `Cluster` + + `aws.docdb.DBClusterReplicaLagMinimum.byCluster` +
+ `aws.docdb.DBClusterReplicaLagMinimum` + + `ClusterByRole` + + `aws.docdb.DBClusterReplicaLagMinimum.byClusterByRole` +
+ `aws.docdb.DBClusterReplicaLagMinimum` + + `Instance` + + `aws.docdb.DBClusterReplicaLagMinimum.byInstance` +
+ `aws.docdb.DBInstanceReplicaLag` + + `Cluster` + + `aws.docdb.DBInstanceReplicaLag.byCluster` +
+ `aws.docdb.DBInstanceReplicaLag` + + `ClusterByRole` + + `aws.docdb.DBInstanceReplicaLag.byClusterByRole` +
+ `aws.docdb.DBInstanceReplicaLag` + + `Instance` + + `aws.docdb.DBInstanceReplicaLag.byInstance` +
+ `aws.docdb.DiskQueueDepth` + + `Cluster` + + `aws.docdb.DiskQueueDepth.byCluster` +
+ `aws.docdb.DiskQueueDepth` + + `ClusterByRole` + + `aws.docdb.DiskQueueDepth.byClusterByRole` +
+ `aws.docdb.DiskQueueDepth` + + `Instance` + + `aws.docdb.DiskQueueDepth.byInstance` +
+ `aws.docdb.EngineUptime` + + `Cluster` + + `aws.docdb.EngineUptime.byCluster` +
+ `aws.docdb.EngineUptime` + + `ClusterByRole` + + `aws.docdb.EngineUptime.byClusterByRole` +
+ `aws.docdb.EngineUptime` + + `Instance` + + `aws.docdb.EngineUptime.byInstance` +
+ `aws.docdb.FreeableMemory` + + `Cluster` + + `aws.docdb.FreeableMemory.byCluster` +
+ `aws.docdb.FreeableMemory` + + `ClusterByRole` + + `aws.docdb.FreeableMemory.byClusterByRole` +
+ `aws.docdb.FreeableMemory` + + `Instance` + + `aws.docdb.FreeableMemory.byInstance` +
+ `aws.docdb.FreeLocalStorage` + + `Cluster` + + `aws.docdb.FreeLocalStorage.byCluster` +
+ `aws.docdb.FreeLocalStorage` + + `ClusterByRole` + + `aws.docdb.FreeLocalStorage.byClusterByRole` +
+ `aws.docdb.FreeLocalStorage` + + `Instance` + + `aws.docdb.FreeLocalStorage.byInstance` +
+ `aws.docdb.NetworkReceiveThroughput` + + `Cluster` + + `aws.docdb.NetworkReceiveThroughput.byCluster` +
+ `aws.docdb.NetworkReceiveThroughput` + + `ClusterByRole` + + `aws.docdb.NetworkReceiveThroughput.byClusterByRole` +
+ `aws.docdb.NetworkReceiveThroughput` + + `Instance` + + `aws.docdb.NetworkReceiveThroughput.byInstance` +
+ `aws.docdb.NetworkThroughput` + + `Cluster` + + `aws.docdb.NetworkThroughput.byCluster` +
+ `aws.docdb.NetworkThroughput` + + `ClusterByRole` + + `aws.docdb.NetworkThroughput.byClusterByRole` +
+ `aws.docdb.NetworkThroughput` + + `Instance` + + `aws.docdb.NetworkThroughput.byInstance` +
+ `aws.docdb.NetworkTransmitThroughput` + + `Cluster` + + `aws.docdb.NetworkTransmitThroughput.byCluster` +
+ `aws.docdb.NetworkTransmitThroughput` + + `ClusterByRole` + + `aws.docdb.NetworkTransmitThroughput.byClusterByRole` +
+ `aws.docdb.NetworkTransmitThroughput` + + `Instance` + + `aws.docdb.NetworkTransmitThroughput.byInstance` +
+ `aws.docdb.ReadIOPS` + + `Cluster` + + `aws.docdb.ReadIOPS.byCluster` +
+ `aws.docdb.ReadIOPS` + + `ClusterByRole` + + `aws.docdb.ReadIOPS.byClusterByRole` +
+ `aws.docdb.ReadIOPS` + + `Instance` + + `aws.docdb.ReadIOPS.byInstance` +
+ `aws.docdb.ReadLatency` + + `Cluster` + + `aws.docdb.ReadLatency.byCluster` +
+ `aws.docdb.ReadLatency` + + `ClusterByRole` + + `aws.docdb.ReadLatency.byClusterByRole` +
+ `aws.docdb.ReadLatency` + + `Instance` + + `aws.docdb.ReadLatency.byInstance` +
+ `aws.docdb.ReadThroughput` + + `Cluster` + + `aws.docdb.ReadThroughput.byCluster` +
+ `aws.docdb.ReadThroughput` + + `ClusterByRole` + + `aws.docdb.ReadThroughput.byClusterByRole` +
+ `aws.docdb.ReadThroughput` + + `Instance` + + `aws.docdb.ReadThroughput.byInstance` +
+ `aws.docdb.SnapshotStorageUsed` + + `Cluster` + + `aws.docdb.SnapshotStorageUsed.byCluster` +
+ `aws.docdb.SnapshotStorageUsed` + + `ClusterByRole` + + `aws.docdb.SnapshotStorageUsed.byClusterByRole` +
+ `aws.docdb.SnapshotStorageUsed` + + `Instance` + + `aws.docdb.SnapshotStorageUsed.byInstance` +
+ `aws.docdb.SwapUsage` + + `Cluster` + + `aws.docdb.SwapUsage.byCluster` +
+ `aws.docdb.SwapUsage` + + `ClusterByRole` + + `aws.docdb.SwapUsage.byClusterByRole` +
+ `aws.docdb.SwapUsage` + + `Instance` + + `aws.docdb.SwapUsage.byInstance` +
+ `aws.docdb.TotalBackupStorageBilled` + + `Cluster` + + `aws.docdb.TotalBackupStorageBilled.byCluster` +
+ `aws.docdb.TotalBackupStorageBilled` + + `ClusterByRole` + + `aws.docdb.TotalBackupStorageBilled.byClusterByRole` +
+ `aws.docdb.TotalBackupStorageBilled` + + `Instance` + + `aws.docdb.TotalBackupStorageBilled.byInstance` +
+ `aws.docdb.VolumeBytesUsed` + + `Cluster` + + `aws.docdb.VolumeBytesUsed.byCluster` +
+ `aws.docdb.VolumeBytesUsed` + + `ClusterByRole` + + `aws.docdb.VolumeBytesUsed.byClusterByRole` +
+ `aws.docdb.VolumeBytesUsed` + + `Instance` + + `aws.docdb.VolumeBytesUsed.byInstance` +
+ `aws.docdb.VolumeReadIOPs` + + `Cluster` + + `aws.docdb.VolumeReadIOPs.byCluster` +
+ `aws.docdb.VolumeReadIOPs` + + `ClusterByRole` + + `aws.docdb.VolumeReadIOPs.byClusterByRole` +
+ `aws.docdb.VolumeReadIOPs` + + `Instance` + + `aws.docdb.VolumeReadIOPs.byInstance` +
+ `aws.docdb.VolumeWriteIOPs` + + `Cluster` + + `aws.docdb.VolumeWriteIOPs.byCluster` +
+ `aws.docdb.VolumeWriteIOPs` + + `ClusterByRole` + + `aws.docdb.VolumeWriteIOPs.byClusterByRole` +
+ `aws.docdb.VolumeWriteIOPs` + + `Instance` + + `aws.docdb.VolumeWriteIOPs.byInstance` +
+ `aws.docdb.WriteIOPS` + + `Cluster` + + `aws.docdb.WriteIOPS.byCluster` +
+ `aws.docdb.WriteIOPS` + + `ClusterByRole` + + `aws.docdb.WriteIOPS.byClusterByRole` +
+ `aws.docdb.WriteIOPS` + + `Instance` + + `aws.docdb.WriteIOPS.byInstance` +
+ `aws.docdb.WriteLatency` + + `Cluster` + + `aws.docdb.WriteLatency.byCluster` +
+ `aws.docdb.WriteLatency` + + `ClusterByRole` + + `aws.docdb.WriteLatency.byClusterByRole` +
+ `aws.docdb.WriteLatency` + + `Instance` + + `aws.docdb.WriteLatency.byInstance` +
+ `aws.docdb.WriteThroughput` + + `Cluster` + + `aws.docdb.WriteThroughput.byCluster` +
+ `aws.docdb.WriteThroughput` + + `ClusterByRole` + + `aws.docdb.WriteThroughput.byClusterByRole` +
+ `aws.docdb.WriteThroughput` + + `Instance` + + `aws.docdb.WriteThroughput.byInstance` +
+ `aws.dynamodb.ConsumedReadCapacityUnits` + + `GlobalSecondaryIndex` + + `aws.dynamodb.ConsumedReadCapacityUnits.byGlobalSecondaryIndex` +
+ `aws.dynamodb.ConsumedWriteCapacityUnits` + + `GlobalSecondaryIndex` + + `aws.dynamodb.ConsumedWriteCapacityUnits.byGlobalSecondaryIndex` +
+ `aws.dynamodb.ProvisionedReadCapacityUnits` + + `GlobalSecondaryIndex` + + `aws.dynamodb.ProvisionedReadCapacityUnits.byGlobalSecondaryIndex` +
+ `aws.dynamodb.ProvisionedWriteCapacityUnits` + + `GlobalSecondaryIndex` + + `aws.dynamodb.ProvisionedWriteCapacityUnits.byGlobalSecondaryIndex` +
+ `aws.dynamodb.ReadThrottleEvents` + + `GlobalSecondaryIndex` + + `aws.dynamodb.ReadThrottleEvents.byGlobalSecondaryIndex` +
+ `aws.dynamodb.WriteThrottleEvents` + + `GlobalSecondaryIndex` + + `aws.dynamodb.WriteThrottleEvents.byGlobalSecondaryIndex` +
+ `aws.ecs.activeServicesCount` + + `Cluster` + + `aws.ecs.activeServicesCount.byCluster` +
+ `aws.ecs.CPUUtilization` + + `Cluster` + + `aws.ecs.CPUUtilization.byCluster` +
+ `aws.ecs.CPUUtilization` + + `Service` + + `aws.ecs.CPUUtilization.byService` +
+ `aws.ecs.desiredCount` + + `Service` + + `aws.ecs.desiredCount.byService` +
+ `aws.ecs.MemoryUtilization` + + `Cluster` + + `aws.ecs.MemoryUtilization.byCluster` +
+ `aws.ecs.MemoryUtilization` + + `Service` + + `aws.ecs.MemoryUtilization.byService` +
+ `aws.ecs.pendingCount` + + `Service` + + `aws.ecs.pendingCount.byService` +
+ `aws.ecs.pendingTasksCount` + + `Cluster` + + `aws.ecs.pendingTasksCount.byCluster` +
+ `aws.ecs.registeredContainerInstancesCount` + + `Cluster` + + `aws.ecs.registeredContainerInstancesCount.byCluster` +
+ `aws.ecs.runningCount` + + `Service` + + `aws.ecs.runningCount.byService` +
+ `aws.ecs.runningTasksCount` + + `Cluster` + + `aws.ecs.runningTasksCount.byCluster` +
+ `aws.es.CPUUtilization` + + `Cluster` + + `aws.es.CPUUtilization.byCluster` +
+ `aws.es.CPUUtilization` + + `Node` + + `aws.es.CPUUtilization.byNode` +
+ `aws.es.FreeStorageSpace` + + `Cluster` + + `aws.es.FreeStorageSpace.byCluster` +
+ `aws.es.FreeStorageSpace` + + `Node` + + `aws.es.FreeStorageSpace.byNode` +
+ `aws.es.IndexingLatency` + + `Cluster` + + `aws.es.IndexingLatency.byCluster` +
+ `aws.es.IndexingLatency` + + `Node` + + `aws.es.IndexingLatency.byNode` +
+ `aws.es.IndexingRate` + + `Cluster` + + `aws.es.IndexingRate.byCluster` +
+ `aws.es.IndexingRate` + + `Node` + + `aws.es.IndexingRate.byNode` +
+ `aws.es.JVMGCOldCollectionCount` + + `Cluster` + + `aws.es.JVMGCOldCollectionCount.byCluster` +
+ `aws.es.JVMGCOldCollectionCount` + + `Node` + + `aws.es.JVMGCOldCollectionCount.byNode` +
+ `aws.es.JVMGCOldCollectionTime` + + `Cluster` + + `aws.es.JVMGCOldCollectionTime.byCluster` +
+ `aws.es.JVMGCOldCollectionTime` + + `Node` + + `aws.es.JVMGCOldCollectionTime.byNode` +
+ `aws.es.JVMGCYoungCollectionCount` + + `Cluster` + + `aws.es.JVMGCYoungCollectionCount.byCluster` +
+ `aws.es.JVMGCYoungCollectionCount` + + `Node` + + `aws.es.JVMGCYoungCollectionCount.byNode` +
+ `aws.es.JVMGCYoungCollectionTime` + + `Cluster` + + `aws.es.JVMGCYoungCollectionTime.byCluster` +
+ `aws.es.JVMGCYoungCollectionTime` + + `Node` + + `aws.es.JVMGCYoungCollectionTime.byNode` +
+ `aws.es.JVMMemoryPressure` + + `Cluster` + + `aws.es.JVMMemoryPressure.byCluster` +
+ `aws.es.JVMMemoryPressure` + + `Node` + + `aws.es.JVMMemoryPressure.byNode` +
+ `aws.es.SearchLatency` + + `Cluster` + + `aws.es.SearchLatency.byCluster` +
+ `aws.es.SearchLatency` + + `Node` + + `aws.es.SearchLatency.byNode` +
+ `aws.es.SearchRate` + + `Cluster` + + `aws.es.SearchRate.byCluster` +
+ `aws.es.SearchRate` + + `Node` + + `aws.es.SearchRate.byNode` +
+ `aws.es.SysMemoryUtilization` + + `Cluster` + + `aws.es.SysMemoryUtilization.byCluster` +
+ `aws.es.SysMemoryUtilization` + + `Node` + + `aws.es.SysMemoryUtilization.byNode` +
+ `aws.es.ThreadpoolBulkQueue` + + `Cluster` + + `aws.es.ThreadpoolBulkQueue.byCluster` +
+ `aws.es.ThreadpoolBulkQueue` + + `Node` + + `aws.es.ThreadpoolBulkQueue.byNode` +
+ `aws.es.ThreadpoolBulkRejected` + + `Cluster` + + `aws.es.ThreadpoolBulkRejected.byCluster` +
+ `aws.es.ThreadpoolBulkRejected` + + `Node` + + `aws.es.ThreadpoolBulkRejected.byNode` +
+ `aws.es.ThreadpoolBulkThreads` + + `Cluster` + + `aws.es.ThreadpoolBulkThreads.byCluster` +
+ `aws.es.ThreadpoolBulkThreads` + + `Node` + + `aws.es.ThreadpoolBulkThreads.byNode` +
+ `aws.es.ThreadpoolForce_mergeQueue` + + `Cluster` + + `aws.es.ThreadpoolForce_mergeQueue.byCluster` +
+ `aws.es.ThreadpoolForce_mergeQueue` + + `Node` + + `aws.es.ThreadpoolForce_mergeQueue.byNode` +
+ `aws.es.ThreadpoolForce_mergeRejected` + + `Cluster` + + `aws.es.ThreadpoolForce_mergeRejected.byCluster` +
+ `aws.es.ThreadpoolForce_mergeRejected` + + `Node` + + `aws.es.ThreadpoolForce_mergeRejected.byNode` +
+ `aws.es.ThreadpoolForce_mergeThreads` + + `Cluster` + + `aws.es.ThreadpoolForce_mergeThreads.byCluster` +
+ `aws.es.ThreadpoolForce_mergeThreads` + + `Node` + + `aws.es.ThreadpoolForce_mergeThreads.byNode` +
+ `aws.es.ThreadpoolIndexQueue` + + `Cluster` + + `aws.es.ThreadpoolIndexQueue.byCluster` +
+ `aws.es.ThreadpoolIndexQueue` + + `Node` + + `aws.es.ThreadpoolIndexQueue.byNode` +
+ `aws.es.ThreadpoolIndexRejected` + + `Cluster` + + `aws.es.ThreadpoolIndexRejected.byCluster` +
+ `aws.es.ThreadpoolIndexRejected` + + `Node` + + `aws.es.ThreadpoolIndexRejected.byNode` +
+ `aws.es.ThreadpoolIndexThreads` + + `Cluster` + + `aws.es.ThreadpoolIndexThreads.byCluster` +
+ `aws.es.ThreadpoolIndexThreads` + + `Node` + + `aws.es.ThreadpoolIndexThreads.byNode` +
+ `aws.es.ThreadpoolSearchQueue` + + `Cluster` + + `aws.es.ThreadpoolSearchQueue.byCluster` +
+ `aws.es.ThreadpoolSearchQueue` + + `Node` + + `aws.es.ThreadpoolSearchQueue.byNode` +
+ `aws.es.ThreadpoolSearchRejected` + + `Cluster` + + `aws.es.ThreadpoolSearchRejected.byCluster` +
+ `aws.es.ThreadpoolSearchRejected` + + `Node` + + `aws.es.ThreadpoolSearchRejected.byNode` +
+ `aws.es.ThreadpoolSearchThreads` + + `Cluster` + + `aws.es.ThreadpoolSearchThreads.byCluster` +
+ `aws.es.ThreadpoolSearchThreads` + + `Node` + + `aws.es.ThreadpoolSearchThreads.byNode` +
+ `aws.kafka.BytesInPerSec` + + `Broker` + + `aws.kafka.BytesInPerSec.byBroker` +
+ `aws.kafka.BytesInPerSec` + + `Topic` + + `aws.kafka.BytesInPerSec.byTopic` +
+ `aws.kafka.BytesOutPerSec` + + `Broker` + + `aws.kafka.BytesOutPerSec.byBroker` +
+ `aws.kafka.BytesOutPerSec` + + `Topic` + + `aws.kafka.BytesOutPerSec.byTopic` +
+ `aws.kafka.FetchMessageConversionsPerSec` + + `Broker` + + `aws.kafka.FetchMessageConversionsPerSec.byBroker` +
+ `aws.kafka.FetchMessageConversionsPerSec` + + `Topic` + + `aws.kafka.FetchMessageConversionsPerSec.byTopic` +
+ `aws.kafka.MessagesInPerSec` + + `Broker` + + `aws.kafka.MessagesInPerSec.byBroker` +
+ `aws.kafka.MessagesInPerSec` + + `Topic` + + `aws.kafka.MessagesInPerSec.byTopic` +
+ `aws.kafka.ProduceMessageConversionsPerSec` + + `Broker` + + `aws.kafka.ProduceMessageConversionsPerSec.byBroker` +
+ `aws.kafka.ProduceMessageConversionsPerSec` + + `Topic` + + `aws.kafka.ProduceMessageConversionsPerSec.byTopic` +
+ `aws.kinesis.IncomingBytes` + + `Stream` + + `aws.kinesis.IncomingBytes.byStream` +
+ `aws.kinesis.IncomingBytes` + + `StreamShard` + + `aws.kinesis.IncomingBytes.byStreamShard` +
+ `aws.kinesis.IncomingRecords` + + `Stream` + + `aws.kinesis.IncomingRecords.byStream` +
+ `aws.kinesis.IncomingRecords` + + `StreamShard` + + `aws.kinesis.IncomingRecords.byStreamShard` +
+ `aws.kinesis.ReadProvisionedThroughputExceeded` + + `Stream` + + `aws.kinesis.ReadProvisionedThroughputExceeded.byStream` +
+ `aws.kinesis.ReadProvisionedThroughputExceeded` + + `StreamShard` + + `aws.kinesis.ReadProvisionedThroughputExceeded.byStreamShard` +
+ `aws.kinesis.WriteProvisionedThroughputExceeded` + + `Stream` + + `aws.kinesis.WriteProvisionedThroughputExceeded.byStream` +
+ `aws.kinesis.WriteProvisionedThroughputExceeded` + + `StreamShard` + + `aws.kinesis.WriteProvisionedThroughputExceeded.byStreamShard` +
+ `aws.lambda.ConcurrentExecutions` + + `Function` + + `aws.lambda.ConcurrentExecutions.byFunction` +
+ `aws.lambda.ConcurrentExecutions` + + `Region` + + `aws.lambda.ConcurrentExecutions.byRegion` +
+ `aws.lambda.DeadLetterErrors` + + `Function` + + `aws.lambda.DeadLetterErrors.byFunction` +
+ `aws.lambda.DeadLetterErrors` + + `FunctionAlias` + + `aws.lambda.DeadLetterErrors.byFunctionAlias` +
+ `aws.lambda.Duration` + + `Function` + + `aws.lambda.Duration.byFunction` +
+ `aws.lambda.Duration` + + `FunctionAlias` + + `aws.lambda.Duration.byFunctionAlias` +
+ `aws.lambda.Errors` + + `Function` + + `aws.lambda.Errors.byFunction` +
+ `aws.lambda.Errors` + + `FunctionAlias` + + `aws.lambda.Errors.byFunctionAlias` +
+ `aws.lambda.Invocations` + + `Function` + + `aws.lambda.Invocations.byFunction` +
+ `aws.lambda.Invocations` + + `FunctionAlias` + + `aws.lambda.Invocations.byFunctionAlias` +
+ `aws.lambda.IteratorAge` + + `Function` + + `aws.lambda.IteratorAge.byFunction` +
+ `aws.lambda.IteratorAge` + + `FunctionAlias` + + `aws.lambda.IteratorAge.byFunctionAlias` +
+ `aws.lambda.ProvisionedConcurrencyInvocations` + + `Function` + + `aws.lambda.ProvisionedConcurrencyInvocations.byFunction` +
+ `aws.lambda.ProvisionedConcurrencyInvocations` + + `FunctionAlias` + + `aws.lambda.ProvisionedConcurrencyInvocations.byFunctionAlias` +
+ `aws.lambda.ProvisionedConcurrencySpilloverInvocations` + + `Function` + + `aws.lambda.ProvisionedConcurrencySpilloverInvocations.byFunction` +
+ `aws.lambda.ProvisionedConcurrencySpilloverInvocations` + + `FunctionAlias` + + `aws.lambda.ProvisionedConcurrencySpilloverInvocations.byFunctionAlias` +
+ `aws.lambda.ProvisionedConcurrencyUtilization` + + `FunctionAlias` + + `aws.lambda.ProvisionedConcurrencyUtilization.byFunctionAlias` +
+ `aws.lambda.ProvisionedConcurrentExecutions` + + `Function` + + `aws.lambda.ProvisionedConcurrentExecutions.byFunction` +
+ `aws.lambda.ProvisionedConcurrentExecutions` + + `FunctionAlias` + + `aws.lambda.ProvisionedConcurrentExecutions.byFunctionAlias` +
+ `aws.lambda.Throttles` + + `Function` + + `aws.lambda.Throttles.byFunction` +
+ `aws.lambda.Throttles` + + `FunctionAlias` + + `aws.lambda.Throttles.byFunctionAlias` +
+ `aws.neptune.BackupRetentionPeriodStorageUsed` + + `Cluster` + + `aws.neptune.BackupRetentionPeriodStorageUsed.byCluster` +
+ `aws.neptune.BackupRetentionPeriodStorageUsed` + + `ClusterByRole` + + `aws.neptune.BackupRetentionPeriodStorageUsed.byClusterByRole` +
+ `aws.neptune.BackupRetentionPeriodStorageUsed` + + `Instance` + + `aws.neptune.BackupRetentionPeriodStorageUsed.byInstance` +
+ `aws.neptune.ClusterReplicaLag` + + `Cluster` + + `aws.neptune.ClusterReplicaLag.byCluster` +
+ `aws.neptune.ClusterReplicaLag` + + `ClusterByRole` + + `aws.neptune.ClusterReplicaLag.byClusterByRole` +
+ `aws.neptune.ClusterReplicaLag` + + `Instance` + + `aws.neptune.ClusterReplicaLag.byInstance` +
+ `aws.neptune.ClusterReplicaLagMaximum` + + `Cluster` + + `aws.neptune.ClusterReplicaLagMaximum.byCluster` +
+ `aws.neptune.ClusterReplicaLagMaximum` + + `ClusterByRole` + + `aws.neptune.ClusterReplicaLagMaximum.byClusterByRole` +
+ `aws.neptune.ClusterReplicaLagMaximum` + + `Instance` + + `aws.neptune.ClusterReplicaLagMaximum.byInstance` +
+ `aws.neptune.ClusterReplicaLagMinimum` + + `Cluster` + + `aws.neptune.ClusterReplicaLagMinimum.byCluster` +
+ `aws.neptune.ClusterReplicaLagMinimum` + + `ClusterByRole` + + `aws.neptune.ClusterReplicaLagMinimum.byClusterByRole` +
+ `aws.neptune.ClusterReplicaLagMinimum` + + `Instance` + + `aws.neptune.ClusterReplicaLagMinimum.byInstance` +
+ `aws.neptune.CPUUtilization` + + `Cluster` + + `aws.neptune.CPUUtilization.byCluster` +
+ `aws.neptune.CPUUtilization` + + `ClusterByRole` + + `aws.neptune.CPUUtilization.byClusterByRole` +
+ `aws.neptune.CPUUtilization` + + `Instance` + + `aws.neptune.CPUUtilization.byInstance` +
+ `aws.neptune.EngineUptime` + + `Cluster` + + `aws.neptune.EngineUptime.byCluster` +
+ `aws.neptune.EngineUptime` + + `ClusterByRole` + + `aws.neptune.EngineUptime.byClusterByRole` +
+ `aws.neptune.EngineUptime` + + `Instance` + + `aws.neptune.EngineUptime.byInstance` +
+ `aws.neptune.FreeableMemory` + + `Cluster` + + `aws.neptune.FreeableMemory.byCluster` +
+ `aws.neptune.FreeableMemory` + + `ClusterByRole` + + `aws.neptune.FreeableMemory.byClusterByRole` +
+ `aws.neptune.FreeableMemory` + + `Instance` + + `aws.neptune.FreeableMemory.byInstance` +
+ `aws.neptune.GremlinRequestsPerSec` + + `Cluster` + + `aws.neptune.GremlinRequestsPerSec.byCluster` +
+ `aws.neptune.GremlinRequestsPerSec` + + `ClusterByRole` + + `aws.neptune.GremlinRequestsPerSec.byClusterByRole` +
+ `aws.neptune.GremlinRequestsPerSec` + + `Instance` + + `aws.neptune.GremlinRequestsPerSec.byInstance` +
+ `aws.neptune.GremlinWebSocketOpenConnections` + + `Cluster` + + `aws.neptune.GremlinWebSocketOpenConnections.byCluster` +
+ `aws.neptune.GremlinWebSocketOpenConnections` + + `ClusterByRole` + + `aws.neptune.GremlinWebSocketOpenConnections.byClusterByRole` +
+ `aws.neptune.GremlinWebSocketOpenConnections` + + `Instance` + + `aws.neptune.GremlinWebSocketOpenConnections.byInstance` +
+ `aws.neptune.LoaderRequestsPerSec` + + `Cluster` + + `aws.neptune.LoaderRequestsPerSec.byCluster` +
+ `aws.neptune.LoaderRequestsPerSec` + + `ClusterByRole` + + `aws.neptune.LoaderRequestsPerSec.byClusterByRole` +
+ `aws.neptune.LoaderRequestsPerSec` + + `Instance` + + `aws.neptune.LoaderRequestsPerSec.byInstance` +
+ `aws.neptune.MainRequestQueuePendingRequests` + + `Cluster` + + `aws.neptune.MainRequestQueuePendingRequests.byCluster` +
+ `aws.neptune.MainRequestQueuePendingRequests` + + `ClusterByRole` + + `aws.neptune.MainRequestQueuePendingRequests.byClusterByRole` +
+ `aws.neptune.MainRequestQueuePendingRequests` + + `Instance` + + `aws.neptune.MainRequestQueuePendingRequests.byInstance` +
+ `aws.neptune.NetworkReceiveThroughput` + + `Cluster` + + `aws.neptune.NetworkReceiveThroughput.byCluster` +
+ `aws.neptune.NetworkReceiveThroughput` + + `ClusterByRole` + + `aws.neptune.NetworkReceiveThroughput.byClusterByRole` +
+ `aws.neptune.NetworkReceiveThroughput` + + `Instance` + + `aws.neptune.NetworkReceiveThroughput.byInstance` +
+ `aws.neptune.NetworkThroughput` + + `Cluster` + + `aws.neptune.NetworkThroughput.byCluster` +
+ `aws.neptune.NetworkThroughput` + + `ClusterByRole` + + `aws.neptune.NetworkThroughput.byClusterByRole` +
+ `aws.neptune.NetworkThroughput` + + `Instance` + + `aws.neptune.NetworkThroughput.byInstance` +
+ `aws.neptune.NetworkTransmitThroughput` + + `Cluster` + + `aws.neptune.NetworkTransmitThroughput.byCluster` +
+ `aws.neptune.NetworkTransmitThroughput` + + `ClusterByRole` + + `aws.neptune.NetworkTransmitThroughput.byClusterByRole` +
+ `aws.neptune.NetworkTransmitThroughput` + + `Instance` + + `aws.neptune.NetworkTransmitThroughput.byInstance` +
+ `aws.neptune.NumTxCommitted` + + `Cluster` + + `aws.neptune.NumTxCommitted.byCluster` +
+ `aws.neptune.NumTxCommitted` + + `ClusterByRole` + + `aws.neptune.NumTxCommitted.byClusterByRole` +
+ `aws.neptune.NumTxCommitted` + + `Instance` + + `aws.neptune.NumTxCommitted.byInstance` +
+ `aws.neptune.NumTxOpened` + + `Cluster` + + `aws.neptune.NumTxOpened.byCluster` +
+ `aws.neptune.NumTxOpened` + + `ClusterByRole` + + `aws.neptune.NumTxOpened.byClusterByRole` +
+ `aws.neptune.NumTxOpened` + + `Instance` + + `aws.neptune.NumTxOpened.byInstance` +
+ `aws.neptune.NumTxRolledBack` + + `Cluster` + + `aws.neptune.NumTxRolledBack.byCluster` +
+ `aws.neptune.NumTxRolledBack` + + `ClusterByRole` + + `aws.neptune.NumTxRolledBack.byClusterByRole` +
+ `aws.neptune.NumTxRolledBack` + + `Instance` + + `aws.neptune.NumTxRolledBack.byInstance` +
+ `aws.neptune.SnapshotStorageUsed` + + `Cluster` + + `aws.neptune.SnapshotStorageUsed.byCluster` +
+ `aws.neptune.SnapshotStorageUsed` + + `ClusterByRole` + + `aws.neptune.SnapshotStorageUsed.byClusterByRole` +
+ `aws.neptune.SnapshotStorageUsed` + + `Instance` + + `aws.neptune.SnapshotStorageUsed.byInstance` +
+ `aws.neptune.SparqlRequestsPerSec` + + `Cluster` + + `aws.neptune.SparqlRequestsPerSec.byCluster` +
+ `aws.neptune.SparqlRequestsPerSec` + + `ClusterByRole` + + `aws.neptune.SparqlRequestsPerSec.byClusterByRole` +
+ `aws.neptune.SparqlRequestsPerSec` + + `Instance` + + `aws.neptune.SparqlRequestsPerSec.byInstance` +
+ `aws.neptune.TotalBackupStorageBilled` + + `Cluster` + + `aws.neptune.TotalBackupStorageBilled.byCluster` +
+ `aws.neptune.TotalBackupStorageBilled` + + `ClusterByRole` + + `aws.neptune.TotalBackupStorageBilled.byClusterByRole` +
+ `aws.neptune.TotalBackupStorageBilled` + + `Instance` + + `aws.neptune.TotalBackupStorageBilled.byInstance` +
+ `aws.neptune.TotalClientErrorsPerSec` + + `Cluster` + + `aws.neptune.TotalClientErrorsPerSec.byCluster` +
+ `aws.neptune.TotalClientErrorsPerSec` + + `ClusterByRole` + + `aws.neptune.TotalClientErrorsPerSec.byClusterByRole` +
+ `aws.neptune.TotalClientErrorsPerSec` + + `Instance` + + `aws.neptune.TotalClientErrorsPerSec.byInstance` +
+ `aws.neptune.TotalRequestsPerSec` + + `Cluster` + + `aws.neptune.TotalRequestsPerSec.byCluster` +
+ `aws.neptune.TotalRequestsPerSec` + + `ClusterByRole` + + `aws.neptune.TotalRequestsPerSec.byClusterByRole` +
+ `aws.neptune.TotalRequestsPerSec` + + `Instance` + + `aws.neptune.TotalRequestsPerSec.byInstance` +
+ `aws.neptune.TotalServerErrorsPerSec` + + `Cluster` + + `aws.neptune.TotalServerErrorsPerSec.byCluster` +
+ `aws.neptune.TotalServerErrorsPerSec` + + `ClusterByRole` + + `aws.neptune.TotalServerErrorsPerSec.byClusterByRole` +
+ `aws.neptune.TotalServerErrorsPerSec` + + `Instance` + + `aws.neptune.TotalServerErrorsPerSec.byInstance` +
+ `aws.neptune.VolumeBytesUsed` + + `Cluster` + + `aws.neptune.VolumeBytesUsed.byCluster` +
+ `aws.neptune.VolumeBytesUsed` + + `ClusterByRole` + + `aws.neptune.VolumeBytesUsed.byClusterByRole` +
+ `aws.neptune.VolumeBytesUsed` + + `Instance` + + `aws.neptune.VolumeBytesUsed.byInstance` +
+ `aws.neptune.VolumeReadIOPs` + + `Cluster` + + `aws.neptune.VolumeReadIOPs.byCluster` +
+ `aws.neptune.VolumeReadIOPs` + + `ClusterByRole` + + `aws.neptune.VolumeReadIOPs.byClusterByRole` +
+ `aws.neptune.VolumeReadIOPs` + + `Instance` + + `aws.neptune.VolumeReadIOPs.byInstance` +
+ `aws.neptune.VolumeWriteIOPs` + + `Cluster` + + `aws.neptune.VolumeWriteIOPs.byCluster` +
+ `aws.neptune.VolumeWriteIOPs` + + `ClusterByRole` + + `aws.neptune.VolumeWriteIOPs.byClusterByRole` +
+ `aws.neptune.VolumeWriteIOPs` + + `Instance` + + `aws.neptune.VolumeWriteIOPs.byInstance` +
+ `aws.rds.VolumeBytesUsed` + + `DbCluster` + + `aws.rds.VolumeBytesUsed.byDbCluster` +
+ `aws.rds.VolumeReadIOPs` + + `DbCluster` + + `aws.rds.VolumeReadIOPs.byDbCluster` +
+ `aws.rds.VolumeWriteIOPs` + + `DbCluster` + + `aws.rds.VolumeWriteIOPs.byDbCluster` +
+ `aws.redshift.CPUUtilization` + + `Cluster` + + `aws.redshift.CPUUtilization.byCluster` +
+ `aws.redshift.CPUUtilization` + + `Node` + + `aws.redshift.CPUUtilization.byNode` +
+ `aws.redshift.DatabaseConnections` + + `Cluster` + + `aws.redshift.DatabaseConnections.byCluster` +
+ `aws.redshift.DatabaseConnections` + + `Node` + + `aws.redshift.DatabaseConnections.byNode` +
+ `aws.redshift.HealthStatus` + + `Cluster` + + `aws.redshift.HealthStatus.byCluster` +
+ `aws.redshift.HealthStatus` + + `Node` + + `aws.redshift.HealthStatus.byNode` +
+ `aws.redshift.MaintenanceMode` + + `Cluster` + + `aws.redshift.MaintenanceMode.byCluster` +
+ `aws.redshift.MaintenanceMode` + + `Node` + + `aws.redshift.MaintenanceMode.byNode` +
+ `aws.redshift.NetworkReceiveThroughput` + + `Cluster` + + `aws.redshift.NetworkReceiveThroughput.byCluster` +
+ `aws.redshift.NetworkReceiveThroughput` + + `Node` + + `aws.redshift.NetworkReceiveThroughput.byNode` +
+ `aws.redshift.NetworkTransmitThroughput` + + `Cluster` + + `aws.redshift.NetworkTransmitThroughput.byCluster` +
+ `aws.redshift.NetworkTransmitThroughput` + + `Node` + + `aws.redshift.NetworkTransmitThroughput.byNode` +
+ `aws.redshift.PercentageDiskSpaceUsed` + + `Cluster` + + `aws.redshift.PercentageDiskSpaceUsed.byCluster` +
+ `aws.redshift.PercentageDiskSpaceUsed` + + `Node` + + `aws.redshift.PercentageDiskSpaceUsed.byNode` +
+ `aws.redshift.ReadIOPS` + + `Cluster` + + `aws.redshift.ReadIOPS.byCluster` +
+ `aws.redshift.ReadIOPS` + + `Node` + + `aws.redshift.ReadIOPS.byNode` +
+ `aws.redshift.ReadLatency` + + `Cluster` + + `aws.redshift.ReadLatency.byCluster` +
+ `aws.redshift.ReadLatency` + + `Node` + + `aws.redshift.ReadLatency.byNode` +
+ `aws.redshift.ReadThroughput` + + `Cluster` + + `aws.redshift.ReadThroughput.byCluster` +
+ `aws.redshift.ReadThroughput` + + `Node` + + `aws.redshift.ReadThroughput.byNode` +
+ `aws.redshift.WriteIOPS` + + `Cluster` + + `aws.redshift.WriteIOPS.byCluster` +
+ `aws.redshift.WriteIOPS` + + `Node` + + `aws.redshift.WriteIOPS.byNode` +
+ `aws.redshift.WriteLatency` + + `Cluster` + + `aws.redshift.WriteLatency.byCluster` +
+ `aws.redshift.WriteLatency` + + `Node` + + `aws.redshift.WriteLatency.byNode` +
+ `aws.redshift.WriteThroughput` + + `Cluster` + + `aws.redshift.WriteThroughput.byCluster` +
+ `aws.redshift.WriteThroughput` + + `Node` + + `aws.redshift.WriteThroughput.byNode` +
+ `aws.states.ConsumedCapacity` + + `ApiUsage` + + `aws.states.ConsumedCapacity.byApiUsage` +
+ `aws.states.ConsumedCapacity` + + `Service` + + `aws.states.ConsumedCapacity.byService` +
+ `aws.states.ProvisionedBucketSize` + + `ApiUsage` + + `aws.states.ProvisionedBucketSize.byApiUsage` +
+ `aws.states.ProvisionedBucketSize` + + `Service` + + `aws.states.ProvisionedBucketSize.byService` +
+ `aws.states.ProvisionedRefillRate` + + `ApiUsage` + + `aws.states.ProvisionedRefillRate.byApiUsage` +
+ `aws.states.ProvisionedRefillRate` + + `Service` + + `aws.states.ProvisionedRefillRate.byService` +
+ `aws.states.ThrottledEvents` + + `ApiUsage` + + `aws.states.ThrottledEvents.byApiUsage` +
+ `aws.states.ThrottledEvents` + + `Service` + + `aws.states.ThrottledEvents.byService` +
+
+ + + Nous générons [des entités](/docs/new-relic-one/use-new-relic-one/core-concepts/what-entity-new-relic) New Relic pour de nombreux espaces de nommage AWS : + + * Parcourez ces entités dans notre [explorateur d'entités](/docs/new-relic-one/use-new-relic-one/ui-data/new-relic-one-entity-explorer). + * Accédez à un dashboard entité créé automatiquement pour ces entités. + * Obtenez les métriques et les entités de cet espace de nommage décoré de la balise AWS. La collecte des balises AWS nécessite que vous ayez accordé à New Relic l'autorisation `tag:GetResources`, qui fait partie du processus de configuration dans l'UI. La balise AWS s'affiche en métriques sous la forme `tag.AWSTagName`; par exemple, si vous avez défini une tag AWS `Team` sur la ressource, elle s'affichera sous la forme `tag.Team`. + * Profitez de toutes les fonctionnalités incluses dans l’explorateur d’entités. + + + [New Relic Lookout](/docs/new-relic-one/use-new-relic-one/core-concepts/new-relic-lookout-monitor-your-estate-glance) est incompatible avec l'intégration flux de métriques AWS. + + +
+ +## Créer une condition d'alerte [#set-alerts] + +Vous pouvez [créer une condition d'alerte NRQL ](/docs/alerts/create-alert/create-alert-condition/alert-conditions)sur les métriques à partir d'un flux métrique. Assurez-vous que votre filtre limite les données aux métriques du flux de métriques CloudWatch uniquement. Pour ce faire, construisez votre requête comme ceci : + +```sql +SELECT sum(aws.s3.5xxErrors) FROM Metric WHERE collector.name = 'cloudwatch-metric-streams' FACET aws.accountId, aws.s3.BucketName +``` + +Pour vous assurer que vos alertes traitent correctement les données, configurez les paramètres de signal avancés. Les paramètres de signal avancés abordent la manière dont AWS CloudWatch reçoit les métriques des services avec un certain délai. Par exemple, Amazon garantit que 90 % des métriques EC2 sont disponibles dans CloudWatch dans les 7 minutes suivant leur génération. Toutefois, lorsque vous ajoutez des métriques de streaming d'AWS à New Relic, cela peut ajouter jusqu'à 1 minute de délai supplémentaire car les données doivent être mises en mémoire tampon dans Amazon Firehose. + +Pour configurer les paramètres du signal, accédez à **Condition Settings** et cliquez sur **Advanced Signal Settings**. Entrez les valeurs suivantes : + +1. **Aggregation window**:Nous vous recommandons de le régler sur 1 minute. Si vous rencontrez des problèmes avec les alertes de bagottement ou les alertes qui ne se déclenchent pas, envisagez de l'augmenter à 2 minutes. +2. **Offset evaluation by**:Selon le service, CloudWatch peut envoyer des métriques avec un certain délai. La valeur est définie dans Windows. Avec une fenêtre d'agrégation d'une minute, la définition du décalage sur 8 garantit que la majorité des métriques sont évaluées correctement. Vous pourrez peut-être utiliser un décalage inférieur si le délai introduit par AWS et Firehose est moindre. +3. **Fill data gaps with**: Laissez ce vide ou utilisez la dernière valeur connue si des lacunes dans les données provenant d'AWS conduisent à des faux positifs ou négatifs. + +## collection de balises [#tags-collection] + +New Relic fournit des dimensions améliorées à partir des métriques provenant d'AWS flux de métriques CloudWatch. Les ressources et les balises personnalisées sont automatiquement extraites de la plupart des services et sont utilisées pour décorer les métriques avec des dimensions supplémentaires. Utilisez [métriques et événement](/docs/query-your-data/explore-query-data/explore-data/introduction-data-explorer/) pour voir quelles balises sont disponibles sur chaque métrique AWS. + +La requête suivante montre un exemple de balise collectée et de requête en tant que dimensions dans les métriques : + +``` +SELECT average(`aws.rds.CPUUtilization`) FROM Metric FACET `tags.mycustomtag` SINCE 30 MINUTES AGO TIMESERIES +``` + +Toutes les métriques n'ont pas leur balise personnalisée comme dimensions. Seules les métriques liées à l'entité répertoriée dans l'[explorateur d'entités](/docs/new-relic-one/use-new-relic-one/ui-data/new-relic-one-entity-explorer) ont leur balise personnalisée associée. L'intégration AWS CloudWatch Metric Streams n'inclut pas de balise dans le cadre du message de flux ; par conséquent, un traitement supplémentaire est requis côté New Relic. + +## Collecte de métadonnées [#metadata-collection] + +Comme avec les balises personnalisées, New Relic extrait également des informations cryptées à partir des services AWS pertinents afin de décorer les métriques AWS CloudWatch avec des métadonnées enrichies collectées à partir des API des services AWS. Ces métadonnées sont accessibles dans New Relic sous forme de dimensions supplémentaires sur les métriques fournies par AWS CloudWatch. + + + Cette fonctionnalité facultative est complémentaire à l'intégration de flux de métriques CloudWatch . Votre découverte et votre monitoring de service seront incomplètes si vous n'activez pas cette fonctionnalité facultative. + + +La solution repose sur [AWS Config](https://docs.aws.amazon.com/config/index.html), ce qui peut entraîner des coûts supplémentaires sur votre compte AWS. AWS Config fournit [des contrôles granulaires](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html) pour déterminer quels services et ressources sont enregistrés. New Relic ingérera uniquement les métadonnées des ressources disponibles dans votre compte AWS. + +Les services et espaces de nommage suivants sont pris en charge : + +* ALB/NLB +* Passerelle API (à l'exclusion de l'API v1) +* DynamoDB +* EBS +* EC2 +* ECS +* ELB +* Lambda +* RDS +* S3 + +### infrastructure agent métriques et décoration métadonnées EC2 [#infra-data-decoration] + +Comme pour l'intégration du polling de l'API EC2, lorsque l'agent infrastructure est installé sur un hôte et que l'espace de nommage EC2 est actif via l'intégration AWS CloudWatch Metric Streams , alors tous les événements et métriques de l'agent infrastructure sont agrémentés de métadonnées supplémentaires. + +L'attribut suivant décorera les échantillons infrastructure . Certains d'entre eux peuvent ne pas être applicables à tous les environnements : `awsAvailabilityZone`, `ec2InstanceId`, `ec2PublicDnsName`, `ec2State`, `ec2EbsOptimized`, `ec2PublicIpAddress`, `ec2PrivateIpAddress`, `ec2VpcId`, `ec2AmiId`, `ec2PrivateDnsName`, `ec2KeyName`, `ec2SubnetId`, `ec2InstanceType`, `ec2Hypervisor`, `ec2Architecture`, `ec2RootDeviceType`, `ec2RootDeviceName`, `ec2VirtualizationType`, `ec2PlacementGroupName`, `ec2PlacementGroupTenancy`. + +## métriques personnalisées et percentile [#custom-metrics-percentiles] + +L'intégration du flux de métriques CloudWatch ingère automatiquement les nouvelles métriques configurées dans le flux, y compris les métriques personnalisées et les centiles. + +### Métriques personnalisées [#custom-metrics] + +Pour ingérer CloudWatch des métriques personnalisées, votre espace de nommage personnalisé doit être visible dans la des métriques CloudWatch Strams.configuration Assurez-vous qu'il n'est pas filtré par des règles d'inclusion ou d'exclusion. + +### centile [#percentiles] + +AWS CloudWatch vous permet de [définir des statistiques supplémentaires](https://aws.amazon.com/about-aws/whats-new/2022/04/amazon-cloudwatch-metric-streams-additional-statistics/), notamment des centiles. + +Suivez ces étapes pour ajouter un centile à n’importe quelle métrique disponible dans le flux CloudWatch : + +1. Sur AWS, mettez à jour la du CloudWatch flux configuration (via API, CLI ou AWS Console) avec le centile requis dans le `StatisticConfiguration` paramètre. Par exemple, vous pouvez ajouter les percentiles p90, p95 et p99 au `ELB latency metric (aws.elb.Latency)`. + +2. Après quelques minutes, la nouvelle statistique devrait être disponible dans le flux et ingérée par New Relic. Le centile peut être interrogé à l'aide de cette convention de dénomination : + + ```sql + From Metric select max(aws.elb.Latency.p99) where collector.name = 'cloudwatch-metric-streams' timeseries + ``` + +Bien qu'AWS prenne en charge d'autres statistiques dans le flux au-delà du centile, celles-ci ne sont pas disponibles dans le format d'exportation Open télémétrie (uniquement JSON) et ne sont actuellement pas prises en charge par New Relic. + +En savoir plus sur les tarifs, les limitations et la configuration avancée dans la [documentation AWS](https://aws.amazon.com/about-aws/whats-new/2022/04/amazon-cloudwatch-metric-streams-additional-statistics/). + +## Gérez vos données [#manage-data] + +L'UI de New Relic fournit un [ensemble d'outils](/docs/telemetry-data-platform/ingest-manage-data/manage-data/manage-your-data/) pour suivre les données ingérées dans votre compte. Accédez à **Manage your data** dans le menu des paramètres pour voir tous les détails. Les métriques ingérées à partir de l'intégration flux de métriques AWS sont prises en compte dans le compartiment **Metric** . + + + Les métriques envoyées via flux de métriques AWS sont prises en compte dans les limites de votre API métrique pour le compte New Relic où les données seront ingérées. + + +Si vous avez besoin d’une vue plus détaillée des données, utilisez la [fonction`bytecountestimate()` ](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts/#byte-count-estimate)sur `Metric` pour estimer les données ingérées. Ces exemples de requêtes peuvent vous aider à comprendre votre ingestion AWS : + + + + La requête suivante représente les données ingérées à partir de toutes les métriques traitées via l'intégration flux de métriques AWS au cours des 30 derniers jours (en octets) : + + ```sql + FROM Metric SELECT bytecountestimate()/10e8 as 'GB Estimate' WHERE collector.name='cloudwatch-metric-streams' SINCE 30 day ago + ``` + + + + Pour voir les données ingérées par les services AWS/espace de nommage : + + ```sql + FROM Metric SELECT bytecountestimate()/10e8 as 'GB Estimate' WHERE collector.name='cloudwatch-metric-streams' FACET aws.Namespace + ``` + + + + Pour voir le nombre de mises à jour métriques brutes traitées par les services AWS/espace de nommage : + + ```sql + FROM Metric SELECT dataPointCount() WHERE collector.name='cloudwatch-metric-streams' FACET aws.Namespace + ``` + + + +Nous recommandons les actions suivantes pour contrôler les données ingérées : + +* Assurez-vous que les flux métriques sont activés uniquement sur les comptes et régions AWS que vous souhaitez monitorer avec New Relic. +* **Use the inclusion and exclusion filters** dans le flux de métriques CloudWatch afin de sélectionner quels services ou espace de nommage sont monitorés par New Relic. +* Envisagez d’utiliser [des règles de suppression de données](/docs/telemetry-data-platform/manage-data/drop-data-using-nerdgraph/) pour supprimer des métriques en fonction de filtres personnalisés. (Par exemple, supprimez les métriques par espace de nommage et tag, valeur tag ou tout autre critère NRQL valide.) + +## Métriques de sondage API [#aws-metrics-table] + +Pour une référence sur les métriques disponibles de chacune des intégrations de sondage et leurs noms, [consultez notre documentation sur l'intégration individuelle](/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations/). + +La liste non exhaustive suivante affiche les métriques collectées par l'intégration d'interrogation AWS et leurs traductions [de métriques dimensionnelles](/docs/telemetry-data-platform/ingest-manage-data/understand-data/new-relic-data-types/#dimensional-metrics) . + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.applicationelb.ActiveConnectionCount` + + `provider.activeConnectionCount` +
+ `aws.applicationelb.ClientTLSNegotiationErrorCount` + + `provider.clientTlsNegotiationErrorCount` +
+ `aws.applicationelb.ConsumedLCUs` + + `provider.consumedLcus` +
+ `aws.applicationelb.ELBAuthError` + + `provider.elbAuthError` +
+ `aws.applicationelb.ELBAuthFailure` + + `provider.elbAuthFailure` +
+ `aws.applicationelb.ELBAuthLatency` + + `provider.elbAuthLatency` +
+ `aws.applicationelb.ELBAuthRefreshTokenSuccess` + + `provider.elbAuthRefreshTokenSuccess` +
+ `aws.applicationelb.ELBAuthSuccess` + + `provider.elbAuthSuccess` +
+ `aws.applicationelb.ELBAuthUserClaimsSizeExceeded` + + `provider.elbAuthUserClaimsSizeExceeded` +
+ `aws.applicationelb.HTTP_Fixed_Response_Count` + + `provider.httpFixedResponseCount` +
+ `aws.applicationelb.HTTP_Redirect_Count` + + `provider.httpRedirectCount` +
+ `aws.applicationelb.HTTP_Redirect_Url_Limit_Exceeded_Count` + + `provider.httpRedirectUrlLimitExceededCount` +
+ `aws.applicationelb.HTTPCode_ELB_2XX_Count` + + `provider.httpCodeElb2XXCount` +
+ `aws.applicationelb.HTTPCode_ELB_3XX_Count` + + `provider.httpCodeElb3XXCount` +
+ `aws.applicationelb.HTTPCode_ELB_4XX_Count` + + `provider.httpCodeElb4XXCount` +
+ `aws.applicationelb.HTTPCode_ELB_500_Count` + + `provider.httpCodeElb500Count` +
+ `aws.applicationelb.HTTPCode_ELB_502_Count` + + `provider.httpCodeElb502Count` +
+ `aws.applicationelb.HTTPCode_ELB_503_Count` + + `provider.httpCodeElb503Count` +
+ `aws.applicationelb.HTTPCode_ELB_504_Count` + + `provider.httpCodeElb504Count` +
+ `aws.applicationelb.HTTPCode_ELB_5XX_Count` + + `provider.httpCodeElb5XXCount` +
+ `aws.applicationelb.IPv6ProcessedBytes` + + `provider.IpV6ProcessedBytes` +
+ `aws.applicationelb.IPv6RequestCount` + + `provider.IpV6RequestCount` +
+ `aws.applicationelb.LambdaTargetProcessedBytes` + + `provider.lambdaTargetProcessedBytes` +
+ `aws.applicationelb.NewConnectionCount` + + `provider.newConnectionCount` +
+ `aws.applicationelb.ProcessedBytes` + + `provider.processedBytes` +
+ `aws.applicationelb.RejectedConnectionCount` + + `provider.rejectedConnectionCount` +
+ `aws.applicationelb.RequestCount.byAlb` + + `provider.requestCount` +
+ `aws.applicationelb.RuleEvaluations` + + `provider.ruleEvaluations` +
+ `aws.applicationelb.RulesEvaluated` + + `provider.rulesEvaluated` +
+ `aws.applicationelb.HealthyHostCount` + + `provider.healthyHostCount` +
+ `aws.applicationelb.HTTPCode_Target_2XX_Count` + + `provider.httpCodeTarget2XXCount` +
+ `aws.applicationelb.HTTPCode_Target_3XX_Count` + + `provider.httpCodeTarget3XXCount` +
+ `aws.applicationelb.HTTPCode_Target_4XX_Count` + + `provider.httpCodeTarget4XXCount` +
+ `aws.applicationelb.HTTPCode_Target_5XX_Count` + + `provider.httpCodeTarget5XXCount` +
+ `aws.applicationelb.LambdaInternalError` + + `provider.lambdaInternalError` +
+ `aws.applicationelb.LambdaUserError` + + `provider.lambdaUserError` +
+ `aws.applicationelb.NonStickyRequestCount` + + `provider.nonStickyRequestCount` +
+ `aws.applicationelb.RequestCount.byTargetGroup` + + `provider.requestCount` +
+ `aws.applicationelb.RequestCountPerTarget` + + `provider.requestCountPerTarget` +
+ `aws.applicationelb.TargetConnectionErrorCount` + + `provider.targetConnectionErrorCount` +
+ `aws.applicationelb.TargetResponseTime` + + `provider.targetResponseTime` +
+ `aws.applicationelb.TargetTLSNegotiationErrorCount` + + `provider.targetTlsNegotiationErrorCount` +
+ `aws.applicationelb.UnHealthyHostCount` + + `provider.unHealthyHostCount` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.apigateway.4XXError.byApi` + + `provider.4xxError` +
+ `aws.apigateway.5XXError.byApi` + + `provider.5xxError` +
+ `aws.apigateway.CacheHitCount.byApi` + + `provider.cacheHitCount` +
+ `aws.apigateway.CacheMissCount.byApi` + + `provider.cacheMissCount` +
+ `aws.apigateway.Count.byApi` + + `provider.count` +
+ `aws.apigateway.IntegrationLatency.byApi` + + `provider.integrationLatency` +
+ `aws.apigateway.Latency.byApi` + + `provider.latency` +
+ `aws.apigateway.4XXError.byResourceWithMetrics` + + `provider.4xxError` +
+ `aws.apigateway.5XXError.byResourceWithMetrics` + + `provider.5xxError` +
+ `aws.apigateway.CacheHitCount.byResourceWithMetrics` + + `provider.cacheHitCount` +
+ `aws.apigateway.CacheMissCount.byResourceWithMetrics` + + `provider.cacheMissCount` +
+ `aws.apigateway.Count.byResourceWithMetrics` + + `provider.count` +
+ `aws.apigateway.IntegrationLatency.byResourceWithMetrics` + + `provider.integrationLatency` +
+ `aws.apigateway.Latency.byResourceWithMetrics` + + `provider.latency` +
+ `aws.apigateway.4XXError.byStage` + + `provider.4xxError` +
+ `aws.apigateway.5XXError.byStage` + + `provider.5xxError` +
+ `aws.apigateway.CacheHitCount.byStage` + + `provider.cacheHitCount` +
+ `aws.apigateway.CacheMissCount.byStage` + + `provider.cacheMissCount` +
+ `aws.apigateway.Count.byStage` + + `provider.count` +
+ `aws.apigateway.IntegrationLatency.byStage` + + `provider.integrationLatency` +
+ `aws.apigateway.Latency.byStage` + + `provider.latency` +
+
+ + + + + + + + + + + + + + + + + + + + + + +
+ `aws.appsync.4XXError` + + `provider.4XXError` +
+ `aws.appsync.5XXError` + + `provider.5XXError` +
+ `aws.appsync.Latency` + + `provider.latency` +
+
+ + + + + + + + + + + + + + + + +
+ `aws.athena.ProcessedBytes` + + `provider.processedBytes` +
+ `aws.athena.TotalExecutionTime` + + `provider.totalExecutionTime` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.autoscaling.GroupDesiredCapacity` + + `provider.groupDesiredCapacity` +
+ `aws.autoscaling.GroupInServiceInstances` + + `provider.groupInServiceInstances` +
+ `aws.autoscaling.GroupMaxSize` + + `provider.groupMaxSize` +
+ `aws.autoscaling.GroupMinSize` + + `provider.groupMinSize` +
+ `aws.autoscaling.GroupPendingInstances` + + `provider.groupPendingInstances` +
+ `aws.autoscaling.GroupStandbyInstances` + + `provider.groupStandbyInstances` +
+ `aws.autoscaling.GroupTerminatingInstances` + + `provider.groupTerminatingInstances` +
+ `aws.autoscaling.GroupTotalInstances` + + `provider.groupTotalInstances` +
+ `aws.autoscaling.healthStatus` + + `healthStatus` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ AWS Billing + + `aws.billing.EstimatedCharges.byAccountCost` + + `provider.estimatedCharges` +
+ `aws.billing.EstimatedCharges.byAccountServiceCost` + + `provider.estimatedCharges` +
+ `aws.billing.actualAmount.byBudget` + + `provider.actualAmount` +
+ `aws.billing.forecastedAmount.byBudget` + + `provider.forecastedAmount` +
+ `aws.billing.limitAmount.byBudget` + + `provider.limitAmount` +
+ `aws.billing.EstimatedCharges.byServiceCost` + + `provider.estimatedCharges` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.cloudfront.4xxErrorRate` + + `provider.error4xxErrorRate` +
+ `aws.cloudfront.5xxErrorRate` + + `provider.error5xxErrorRate` +
+ `aws.cloudfront.BytesDownloaded` + + `provider.bytesDownloaded` +
+ `aws.cloudfront.BytesUploaded` + + `provider.bytesUploaded` +
+ `aws.cloudfront.Requests` + + `provider.requests` +
+ `aws.cloudfront.TotalErrorRate` + + `provider.totalErrorRate` +
+ `aws.lambda.Duration.byEdgeFunction` + + `provider.duration` +
+ `aws.lambda.Errors.byEdgeFunction` + + `provider.errors` +
+ `aws.lambda.Invocations.byEdgeFunction` + + `provider.invocations` +
+ `aws.lambda.Throttles.byEdgeFunction` + + `provider.throttles` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.cognito.FederationSuccesses` + + `provider.federationSuccesses` +
+ `aws.cognito.FederationThrottles` + + `provider.federationThrottles` +
+ `aws.cognito.SignInSuccesses` + + `provider.signInSuccesses` +
+ `aws.cognito.SignInThrottles` + + `provider.signInThrottles` +
+ `aws.cognito.SignUpSuccesses` + + `provider.signUpSuccesses` +
+ `aws.cognito.SignUpThrottles` + + `provider.signUpThrottles` +
+ `aws.cognito.TokenRefreshSuccesses` + + `provider.tokenRefreshSuccesses` +
+ `aws.cognito.TokenRefreshThrottles` + + `provider.tokenRefreshThrottles` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.connect.CallRecordingUploadError` + + `provider.callRecordingUploadError` +
+ `aws.connect.ContactFlowErrors` + + `provider.contactFlowErrors` +
+ `aws.connect.ContactFlowFatalErrors` + + `provider.contactFlowFatalErrors` +
+ `aws.connect.MisconfiguredPhoneNumbers` + + `provider.misconfiguredPhoneNumbers` +
+ `aws.connect.PublicSigningKeyUsage` + + `provider.publicSigningKeyUsage` +
+ `aws.connect.CallsBreachingConcurrencyQuota` + + `provider.callsBreachingConcurrencyQuota` +
+ `aws.connect.CallsPerInterval` + + `provider.callsPerInterval` +
+ `aws.connect.ConcurrentCalls` + + `provider.concurrentCalls` +
+ `aws.connect.ConcurrentCallsPercentage` + + `provider.concurrentCallsPercentage` +
+ `aws.connect.MissedCalls` + + `provider.missedCalls` +
+ `aws.connect.ThrottledCalls` + + `provider.throttledCalls` +
+ `aws.connect.CallBackNotDialableNumber` + + `provider.callBackNotDialableNumber` +
+ `aws.connect.LongestQueueWaitTime` + + `provider.longestQueueWaitTime` +
+ `aws.connect.QueueCapacityExceededError` + + `provider.queueCapacityExceededError` +
+ `aws.connect.QueueSize` + + `provider.queueSize` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.dx.ConnectionBpsEgress` + + `provider.connectionBpsEgress` +
+ `aws.dx.ConnectionBpsIngress` + + `provider.connectionBpsIngress` +
+ `aws.dx.ConnectionCRCErrorCount` + + `provider.connectionCRCErrorCount` +
+ `aws.dx.ConnectionLightLevelRx` + + `provider.connectionLightLevelRx` +
+ `aws.dx.ConnectionLightLevelTx` + + `provider.connectionLightLevelTx` +
+ `aws.dx.ConnectionPpsEgress` + + `provider.connectionPpsEgress` +
+ `aws.dx.ConnectionPpsIngress` + + `provider.connectionPpsIngress` +
+ `aws.dx.ConnectionState` + + `provider.connectionState` +
+ `aws.dx.VirtualInterfaceBpsEgress` + + `provider.virtualInterfaceBpsEgress` +
+ `aws.dx.VirtualInterfaceBpsIngress` + + `provider.virtualInterfaceBpsIngress` +
+ `aws.dx.VirtualInterfacePpsEgress` + + `provider.virtualInterfacePpsEgress` +
+ `aws.dx.VirtualInterfacePpsIngress` + + `provider.virtualInterfacePpsIngress` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Base de données de documents AWS + + `aws.docdb.BackupRetentionPeriodStorageUsed.byCluster` + + `provider.backupRetentionPeriodStorageUsed` +
+ `aws.docdb.BufferCacheHitRatio.byCluster` + + `provider.bufferCacheHitRatio` +
+ `aws.docdb.CPUUtilization.byCluster` + + `provider.cpuUtilization` +
+ `aws.docdb.DatabaseConnections.byCluster` + + `provider.databaseConnections` +
+ `aws.docdb.DBClusterReplicaLagMaximum.byCluster` + + `provider.dbClusterReplicaLagMaximum` +
+ `aws.docdb.DBClusterReplicaLagMinimum.byCluster` + + `provider.dbClusterReplicaLagMinimum` +
+ `aws.docdb.DBInstanceReplicaLag.byCluster` + + `provider.dbInstanceReplicaLag` +
+ `aws.docdb.DiskQueueDepth.byCluster` + + `provider.diskQueueDepth` +
+ `aws.docdb.EngineUptime.byCluster` + + `provider.engineUptime` +
+ `aws.docdb.FreeableMemory.byCluster` + + `provider.freeableMemory` +
+ `aws.docdb.FreeLocalStorage.byCluster` + + `provider.freeLocalStorage` +
+ `aws.docdb.NetworkReceiveThroughput.byCluster` + + `provider.networkReceiveThroughput` +
+ `aws.docdb.NetworkThroughput.byCluster` + + `provider.networkThroughput` +
+ `aws.docdb.NetworkTransmitThroughput.byCluster` + + `provider.networkTransmitThroughput` +
+ `aws.docdb.ReadIOPS.byCluster` + + `provider.readIOPS` +
+ `aws.docdb.ReadLatency.byCluster` + + `provider.readLatency` +
+ `aws.docdb.ReadThroughput.byCluster` + + `provider.readThroughput` +
+ `aws.docdb.SnapshotStorageUsed.byCluster` + + `provider.snapshotStorageUsed` +
+ `aws.docdb.SwapUsage.byCluster` + + `provider.swapUsage` +
+ `aws.docdb.TotalBackupStorageBilled.byCluster` + + `provider.totalBackupStorageBilled` +
+ `aws.docdb.VolumeBytesUsed.byCluster` + + `provider.volumeBytesUsed` +
+ `aws.docdb.VolumeReadIOPs.byCluster` + + `provider.volumeReadIOPs` +
+ `aws.docdb.VolumeWriteIOPs.byCluster` + + `provider.volumeWriteIOPs` +
+ `aws.docdb.WriteIOPS.byCluster` + + `provider.writeIOPS` +
+ `aws.docdb.WriteLatency.byCluster` + + `provider.writeLatency` +
+ `aws.docdb.WriteThroughput.byCluster` + + `provider.writeThroughput` +
+ `aws.docdb.BackupRetentionPeriodStorageUsed.byClusterByRole` + + `provider.backupRetentionPeriodStorageUsed` +
+ `aws.docdb.BufferCacheHitRatio.byClusterByRole` + + `provider.bufferCacheHitRatio` +
+ `aws.docdb.CPUUtilization.byClusterByRole` + + `provider.cpuUtilization` +
+ `aws.docdb.DatabaseConnections.byClusterByRole` + + `provider.databaseConnections` +
+ `aws.docdb.DBClusterReplicaLagMaximum.byClusterByRole` + + `provider.dbClusterReplicaLagMaximum` +
+ `aws.docdb.DBClusterReplicaLagMinimum.byClusterByRole` + + `provider.dbClusterReplicaLagMinimum` +
+ `aws.docdb.DBInstanceReplicaLag.byClusterByRole` + + `provider.dbInstanceReplicaLag` +
+ `aws.docdb.DiskQueueDepth.byClusterByRole` + + `provider.diskQueueDepth` +
+ `aws.docdb.EngineUptime.byClusterByRole` + + `provider.engineUptime` +
+ `aws.docdb.FreeableMemory.byClusterByRole` + + `provider.freeableMemory` +
+ `aws.docdb.FreeLocalStorage.byClusterByRole` + + `provider.freeLocalStorage` +
+ `aws.docdb.NetworkReceiveThroughput.byClusterByRole` + + `provider.networkReceiveThroughput` +
+ `aws.docdb.NetworkThroughput.byClusterByRole` + + `provider.networkThroughput` +
+ `aws.docdb.NetworkTransmitThroughput.byClusterByRole` + + `provider.networkTransmitThroughput` +
+ `aws.docdb.ReadIOPS.byClusterByRole` + + `provider.readIOPS` +
+ `aws.docdb.ReadLatency.byClusterByRole` + + `provider.readLatency` +
+ `aws.docdb.ReadThroughput.byClusterByRole` + + `provider.readThroughput` +
+ `aws.docdb.SnapshotStorageUsed.byClusterByRole` + + `provider.snapshotStorageUsed` +
+ `aws.docdb.SwapUsage.byClusterByRole` + + `provider.swapUsage` +
+ `aws.docdb.TotalBackupStorageBilled.byClusterByRole` + + `provider.totalBackupStorageBilled` +
+ `aws.docdb.VolumeBytesUsed.byClusterByRole` + + `provider.volumeBytesUsed` +
+ `aws.docdb.VolumeReadIOPs.byClusterByRole` + + `provider.volumeReadIOPs` +
+ `aws.docdb.VolumeWriteIOPs.byClusterByRole` + + `provider.volumeWriteIOPs` +
+ `aws.docdb.WriteIOPS.byClusterByRole` + + `provider.writeIOPS` +
+ `aws.docdb.WriteLatency.byClusterByRole` + + `provider.writeLatency` +
+ `aws.docdb.WriteThroughput.byClusterByRole` + + `provider.writeThroughput` +
+ `aws.docdb.BackupRetentionPeriodStorageUsed.byInstance` + + `provider.backupRetentionPeriodStorageUsed` +
+ `aws.docdb.BufferCacheHitRatio.byInstance` + + `provider.bufferCacheHitRatio` +
+ `aws.docdb.CPUUtilization.byInstance` + + `provider.cpuUtilization` +
+ `aws.docdb.DatabaseConnections.byInstance` + + `provider.databaseConnections` +
+ `aws.docdb.DBClusterReplicaLagMaximum.byInstance` + + `provider.dbClusterReplicaLagMaximum` +
+ `aws.docdb.DBClusterReplicaLagMinimum.byInstance` + + `provider.dbClusterReplicaLagMinimum` +
+ `aws.docdb.DBInstanceReplicaLag.byInstance` + + `provider.dbInstanceReplicaLag` +
+ `aws.docdb.DiskQueueDepth.byInstance` + + `provider.diskQueueDepth` +
+ `aws.docdb.EngineUptime.byInstance` + + `provider.engineUptime` +
+ `aws.docdb.FreeableMemory.byInstance` + + `provider.freeableMemory` +
+ `aws.docdb.FreeLocalStorage.byInstance` + + `provider.freeLocalStorage` +
+ `aws.docdb.NetworkReceiveThroughput.byInstance` + + `provider.networkReceiveThroughput` +
+ `aws.docdb.NetworkThroughput.byInstance` + + `provider.networkThroughput` +
+ `aws.docdb.NetworkTransmitThroughput.byInstance` + + `provider.networkTransmitThroughput` +
+ `aws.docdb.ReadIOPS.byInstance` + + `provider.readIOPS` +
+ `aws.docdb.ReadLatency.byInstance` + + `provider.readLatency` +
+ `aws.docdb.ReadThroughput.byInstance` + + `provider.readThroughput` +
+ `aws.docdb.SnapshotStorageUsed.byInstance` + + `provider.snapshotStorageUsed` +
+ `aws.docdb.SwapUsage.byInstance` + + `provider.swapUsage` +
+ `aws.docdb.TotalBackupStorageBilled.byInstance` + + `provider.totalBackupStorageBilled` +
+ `aws.docdb.VolumeBytesUsed.byInstance` + + `provider.volumeBytesUsed` +
+ `aws.docdb.VolumeReadIOPs.byInstance` + + `provider.volumeReadIOPs` +
+ `aws.docdb.VolumeWriteIOPs.byInstance` + + `provider.volumeWriteIOPs` +
+ `aws.docdb.WriteIOPS.byInstance` + + `provider.writeIOPS` +
+ `aws.docdb.WriteLatency.byInstance` + + `provider.writeLatency` +
+ `aws.docdb.WriteThroughput.byInstance` + + `provider.writeThroughput` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.dynamodb.ConsumedReadCapacityUnits.byGlobalSecondaryIndex` + + `provider.consumedReadCapacityUnits` +
+ `aws.dynamodb.ConsumedWriteCapacityUnits.byGlobalSecondaryIndex` + + `provider.consumedWriteCapacityUnits` +
+ `aws.dynamodb.OnlineIndexConsumedWriteCapacity` + + `provider.onlineIndexConsumedWriteCapacity` +
+ `aws.dynamodb.OnlineIndexPercentageProgress` + + `provider.onlineIndexPercentageProgress` +
+ `aws.dynamodb.OnlineIndexThrottleEvents` + + `provider.onlineIndexThrottleEvents` +
+ `aws.dynamodb.ProvisionedReadCapacityUnits.byGlobalSecondaryIndex` + + `provider.provisionedReadCapacityUnits` +
+ `aws.dynamodb.ProvisionedWriteCapacityUnits.byGlobalSecondaryIndex` + + `provider.provisionedWriteCapacityUnits` +
+ `aws.dynamodb.ReadThrottleEvents.byGlobalSecondaryIndex` + + `provider.readThrottleEvents` +
+ `aws.dynamodb.WriteThrottleEvents.byGlobalSecondaryIndex` + + `provider.writeThrottleEvents` +
+ `aws.dynamodb.SystemErrors.byRegion` + + `provider.systemErrors` +
+ `aws.dynamodb.UserErrors.byRegion` + + `provider.userErrors` +
+ `aws.dynamodb.ConditionalCheckFailedRequests` + + `provider.conditionalCheckFailedRequests` +
+ `aws.dynamodb.ConsumedReadCapacityUnits.byTable` + + `provider.consumedReadCapacityUnits` +
+ `aws.dynamodb.ConsumedWriteCapacityUnits.byTable` + + `provider.consumedWriteCapacityUnits` +
+ `aws.dynamoDb.ItemCount` + + `provider.itemCount` +
+ `aws.dynamodb.PendingReplicationCount` + + `provider.pendingReplicationCount` +
+ `aws.dynamodb.ProvisionedReadCapacityUnits.byTable` + + `provider.provisionedReadCapacityUnits` +
+ `aws.dynamodb.ProvisionedWriteCapacityUnits.byTable` + + `provider.provisionedWriteCapacityUnits` +
+ `aws.dynamodb.ReadThrottleEvents.byTable` + + `provider.readThrottleEvents` +
+ `aws.dynamodb.ReplicationLatency` + + `provider.replicationLatency` +
+ `aws.dynamodb.ReturnedItemCount` + + `provider.queryReturnedItemCount` +
+ `aws.dynamodb.ReturnedItemCount.scan` + + `provider.scanReturnedItemCount` +
+ `aws.dynamodb.SuccessfulRequestLatency.batchGet` + + `provider.batchGetSuccessfulRequestLatency` +
+ `aws.dynamodb.SuccessfulRequestLatency.batchWrite` + + `provider.batchWriteSuccessfulRequestLatency` +
+ `aws.dynamodb.SuccessfulRequestLatency.delete` + + `provider.deleteSuccessfulRequestLatency` +
+ `aws.dynamodb.SuccessfulRequestLatency.get` + + `provider.getSuccessfulRequestLatency` +
+ `aws.dynamodb.SuccessfulRequestLatency.put` + + `provider.putSuccessfulRequestLatency` +
+ `aws.dynamodb.SuccessfulRequestLatency.query` + + `provider.querySuccessfulRequestLatency` +
+ `aws.dynamodb.SuccessfulRequestLatency.scan` + + `provider.scanSuccessfulRequestLatency` +
+ `aws.dynamodb.SuccessfulRequestLatency.update` + + `provider.updateSuccessfulRequestLatency` +
+ `aws.dynamodb.SystemErrors.batchGet` + + `provider.batchGetSystemErrors` +
+ `aws.dynamodb.SystemErrors.batchWrite` + + `provider.batchWriteSystemErrors` +
+ `aws.dynamodb.SystemErrors.byTable` + + `provider.systemErrors` +
+ `aws.dynamodb.SystemErrors.delete` + + `provider.deleteSystemErrors` +
+ `aws.dynamodb.SystemErrors.get` + + `provider.getSystemErrors` +
+ `aws.dynamodb.SystemErrors.put` + + `provider.putSystemErrors` +
+ `aws.dynamodb.SystemErrors.query` + + `provider.querySystemErrors` +
+ `aws.dynamodb.SystemErrors.scan` + + `provider.scanSystemErrors` +
+ `aws.dynamodb.SystemErrors.update` + + `provider.updateSystemErrors` +
+ `aws.dynamoDb.TableSizeBytes` + + `provider.tableSizeBytes` +
+ `aws.dynamodb.ThrottledRequests.batchGet` + + `provider.batchGetThrottledRequests` +
+ `aws.dynamodb.ThrottledRequests.batchWrite` + + `provider.batchWriteThrottledRequests` +
+ `aws.dynamodb.ThrottledRequests.delete` + + `provider.deleteThrottledRequests` +
+ `aws.dynamodb.ThrottledRequests.get` + + `provider.getThrottledRequests` +
+ `aws.dynamodb.ThrottledRequests.put` + + `provider.putThrottledRequests` +
+ `aws.dynamodb.ThrottledRequests.query` + + `provider.queryThrottledRequests` +
+ `aws.dynamodb.ThrottledRequests.scan` + + `provider.scanThrottledRequests` +
+ `aws.dynamodb.ThrottledRequests.update` + + `provider.updateThrottledRequests` +
+ `aws.dynamodb.UserErrors.byTable` + + `provider.userErrors` +
+ `aws.dynamodb.WriteThrottleEvents.byTable` + + `provider.writeThrottleEvents` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.ebs.BurstBalance` + + `provider.burstBalance` +
+ `aws.ebs.VolumeConsumedReadWriteOps` + + `provider.volumeConsumedReadWriteOps` +
+ `aws.ebs.VolumeIdleTime` + + `provider.volumeIdleTime` +
+ `aws.ebs.VolumeQueueLength` + + `provider.volumeQueueLength` +
+ `aws.ebs.VolumeReadBytes` + + `provider.volumeReadBytes` +
+ `aws.ebs.VolumeReadOps` + + `provider.volumeReadOps` +
+ `aws.ebs.VolumeThroughputPercentage` + + `provider.volumeThroughputPercentage` +
+ `aws.ebs.VolumeTotalReadTime` + + `provider.volumeTotalReadTime` +
+ `aws.ebs.VolumeTotalWriteTime` + + `provider.volumeTotalWriteTime` +
+ `aws.ebs.VolumeWriteBytes` + + `provider.volumeWriteBytes` +
+ `aws.ebs.VolumeWriteOps` + + `provider.volumeWriteOps` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.ec2.CPUCreditBalance` + + `provider.cpuCreditBalance` +
+ `aws.ec2.CPUCreditUsage` + + `provider.cpuCreditUsage` +
+ `aws.ec2.CPUSurplusCreditBalance` + + `provider.cpuSurplusCreditBalance` +
+ `aws.ec2.CPUSurplusCreditsCharged` + + `provider.cpuSurplusCreditsCharged` +
+ `aws.ec2.CPUUtilization` + + `provider.cpuUtilization` +
+ `aws.ec2.DiskReadBytes` + + `provider.diskReadBytes` +
+ `aws.ec2.DiskReadOps` + + `provider.diskReadOps` +
+ `aws.ec2.DiskWriteBytes` + + `provider.diskWriteBytes` +
+ `aws.ec2.DiskWriteOps` + + `provider.diskWriteOps` +
+ `aws.ec2.NetworkIn` + + `provider.networkInBytes` +
+ `aws.ec2.NetworkOut` + + `provider.networkOutBytes` +
+ `aws.ec2.NetworkPacketsIn` + + `provider.networkInPackets` +
+ `aws.ec2.NetworkPacketsOut` + + `provider.networkOutPackets` +
+ `aws.ec2.StatusCheckFailed` + + `provider.statusCheckFailed` +
+ `aws.ec2.StatusCheckFailed_Instance` + + `provider.statusCheckFailedInstance` +
+ `aws.ec2.StatusCheckFailed_System` + + `provider.statusCheckFailedSystem` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.ecs.activeServicesCount.byCluster` + + `provider.activeServicesCount` +
+ `aws.ecs.CPUReservation` + + `provider.cpuReservation` +
+ `aws.ecs.CPUUtilization.byCluster` + + `provider.cpuUtilization` +
+ `aws.ecs.MemoryReservation` + + `provider.memoryReservation` +
+ `aws.ecs.MemoryUtilization.byCluster` + + `provider.memoryUtilization` +
+ `aws.ecs.pendingTasksCount.byCluster` + + `provider.pendingTasksCount` +
+ `aws.ecs.registeredContainerInstancesCount.byCluster` + + `provider.registeredContainerInstancesCount` +
+ `aws.ecs.runningTasksCount.byCluster` + + `provider.runningTasksCount` +
+ `aws.ecs.CPUUtilization.byService` + + `provider.cpuUtilization` +
+ `aws.ecs.desiredCount.byService` + + `provider.desiredCount` +
+ `aws.ecs.MemoryUtilization.byService` + + `provider.memoryUtilization` +
+ `aws.ecs.pendingCount.byService` + + `provider.pendingCount` +
+ `aws.ecs.runningCount.byService` + + `provider.runningCount` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.efs.BurstCreditBalance` + + `provider.burstCreditBalance` +
+ `aws.efs.ClientConnections` + + `provider.clientConnections` +
+ `aws.efs.DataReadIOBytes` + + `provider.dataReadIOBytes` +
+ `aws.efs.DataWriteIOBytes` + + `provider.dataWriteIOBytes` +
+ `aws.efs.lastKnownSizeInBytes` + + `provider.lastKnownSizeInBytes` +
+ `aws.efs.MetadataIOBytes` + + `provider.metadataIOBytes` +
+ `aws.efs.PercentIOLimit` + + `provider.percentIOLimit` +
+ `aws.efs.PermittedThroughput` + + `provider.permittedThroughput` +
+ `aws.efs.TotalIOBytes` + + `provider.totalIOBytes` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.es.2xx` + + `provider.2xx` +
+ `aws.es.3xx` + + `provider.3xx` +
+ `aws.es.4xx` + + `provider.4xx` +
+ `aws.es.5xx` + + `provider.5xx` +
+ `aws.es.AutomatedSnapshotFailure` + + `provider.AutomatedSnapshotFailure` +
+ `aws.es.ClusterIndexWritesBlocked` + + `provider.ClusterIndexWritesBlocked` +
+ `aws.es.ClusterStatus.green` + + `provider.ClusterStatus.green` +
+ `aws.es.ClusterStatus.red` + + `provider.ClusterStatus.red` +
+ `aws.es.ClusterStatus.yellow` + + `provider.ClusterStatus.yellow` +
+ `aws.es.ClusterUsedSpace` + + `provider.ClusterUsedSpace` +
+ `aws.es.CPUCreditBalance` + + `provider.CPUCreditBalance` +
+ `aws.es.CPUUtilization.byCluster` + + `provider.CPUUtilization` +
+ `aws.es.DeletedDocuments` + + `provider.DeletedDocuments` +
+ `aws.es.DiskQueueDepth` + + `provider.DiskQueueDepth` +
+ `aws.es.ElasticsearchRequests` + + `provider.ElasticsearchRequests` +
+ `aws.es.FreeStorageSpace.byCluster` + + `provider.FreeStorageSpace` +
+ `aws.es.IndexingLatency.byCluster` + + `provider.IndexingLatency` +
+ `aws.es.IndexingRate.byCluster` + + `provider.IndexingRate` +
+ `aws.es.InvalidHostHeaderRequests` + + `provider.InvalidHostHeaderRequests` +
+ `aws.es.JVMGCOldCollectionCount.byCluster` + + `provider.JVMGCOldCollectionCount` +
+ `aws.es.JVMGCOldCollectionTime.byCluster` + + `provider.JVMGCOldCollectionTime` +
+ `aws.es.JVMGCYoungCollectionCount.byCluster` + + `provider.JVMGCYoungCollectionCount` +
+ `aws.es.JVMGCYoungCollectionTime.byCluster` + + `provider.JVMGCYoungCollectionTime` +
+ `aws.es.JVMMemoryPressure.byCluster` + + `provider.JVMMemoryPressure` +
+ `aws.es.KibanaHealthyNodes` + + `provider.KibanaHealthyNodes` +
+ `aws.es.KMSKeyError` + + `provider.KMSKeyError` +
+ `aws.es.KMSKeyInaccessible` + + `provider.KMSKeyInaccessible` +
+ `aws.es.MasterCPUCreditBalance` + + `provider.MasterCPUCreditBalance` +
+ `aws.es.MasterCPUUtilization` + + `provider.MasterCPUUtilization` +
+ `aws.es.MasterJVMMemoryPressure` + + `provider.MasterJVMMemoryPressure` +
+ `aws.es.MasterReachableFromNode` + + `provider.MasterReachableFromNode` +
+ `aws.es.Nodes` + + `provider.Nodes` +
+ `aws.es.ReadIOPS` + + `provider.ReadIOPS` +
+ `aws.es.ReadLatency` + + `provider.ReadLatency` +
+ `aws.es.ReadThroughput` + + `provider.ReadThroughput` +
+ `aws.es.SearchableDocuments` + + `provider.SearchableDocuments` +
+ `aws.es.SearchLatency.byCluster` + + `provider.SearchLatency` +
+ `aws.es.SearchRate.byCluster` + + `provider.SearchRate` +
+ `aws.es.SysMemoryUtilization.byCluster` + + `provider.SysMemoryUtilization` +
+ `aws.es.ThreadpoolBulkQueue.byCluster` + + `provider.ThreadpoolBulkQueue` +
+ `aws.es.ThreadpoolBulkRejected.byCluster` + + `provider.ThreadpoolBulkRejected` +
+ `aws.es.ThreadpoolBulkThreads.byCluster` + + `provider.ThreadpoolBulkThreads` +
+ `aws.es.ThreadpoolForce_mergeQueue.byCluster` + + `provider.ThreadpoolForce_mergeQueue` +
+ `aws.es.ThreadpoolForce_mergeRejected.byCluster` + + `provider.ThreadpoolForce_mergeRejected` +
+ `aws.es.ThreadpoolForce_mergeThreads.byCluster` + + `provider.ThreadpoolForce_mergeThreads` +
+ `aws.es.ThreadpoolIndexQueue.byCluster` + + `provider.ThreadpoolIndexQueue` +
+ `aws.es.ThreadpoolIndexRejected.byCluster` + + `provider.ThreadpoolIndexRejected` +
+ `aws.es.ThreadpoolIndexThreads.byCluster` + + `provider.ThreadpoolIndexThreads` +
+ `aws.es.ThreadpoolSearchQueue.byCluster` + + `provider.ThreadpoolSearchQueue` +
+ `aws.es.ThreadpoolSearchRejected.byCluster` + + `provider.ThreadpoolSearchRejected` +
+ `aws.es.ThreadpoolSearchThreads.byCluster` + + `provider.ThreadpoolSearchThreads` +
+ `aws.es.WriteIOPS` + + `provider.WriteIOPS` +
+ `aws.es.WriteLatency` + + `provider.WriteLatency` +
+ `aws.es.WriteThroughput` + + `provider.WriteThroughput` +
+ `aws.es.CPUUtilization.byNode` + + `provider.CPUUtilization` +
+ `aws.es.FreeStorageSpace.byNode` + + `provider.FreeStorageSpace` +
+ `aws.es.IndexingLatency.byNode` + + `provider.IndexingLatency` +
+ `aws.es.IndexingRate.byNode` + + `provider.IndexingRate` +
+ `aws.es.JVMGCOldCollectionCount.byNode` + + `provider.JVMGCOldCollectionCount` +
+ `aws.es.JVMGCOldCollectionTime.byNode` + + `provider.JVMGCOldCollectionTime` +
+ `aws.es.JVMGCYoungCollectionCount.byNode` + + `provider.JVMGCYoungCollectionCount` +
+ `aws.es.JVMGCYoungCollectionTime.byNode` + + `provider.JVMGCYoungCollectionTime` +
+ `aws.es.JVMMemoryPressure.byNode` + + `provider.JVMMemoryPressure` +
+ `aws.es.SearchLatency.byNode` + + `provider.SearchLatency` +
+ `aws.es.SearchRate.byNode` + + `provider.SearchRate` +
+ `aws.es.SysMemoryUtilization.byNode` + + `provider.SysMemoryUtilization` +
+ `aws.es.ThreadpoolBulkQueue.byNode` + + `provider.ThreadpoolBulkQueue` +
+ `aws.es.ThreadpoolBulkRejected.byNode` + + `provider.ThreadpoolBulkRejected` +
+ `aws.es.ThreadpoolBulkThreads.byNode` + + `provider.ThreadpoolBulkThreads` +
+ `aws.es.ThreadpoolForce_mergeQueue.byNode` + + `provider.ThreadpoolForce_mergeQueue` +
+ `aws.es.ThreadpoolForce_mergeRejected.byNode` + + `provider.ThreadpoolForce_mergeRejected` +
+ `aws.es.ThreadpoolForce_mergeThreads.byNode` + + `provider.ThreadpoolForce_mergeThreads` +
+ `aws.es.ThreadpoolIndexQueue.byNode` + + `provider.ThreadpoolIndexQueue` +
+ `aws.es.ThreadpoolIndexRejected.byNode` + + `provider.ThreadpoolIndexRejected` +
+ `aws.es.ThreadpoolIndexThreads.byNode` + + `provider.ThreadpoolIndexThreads` +
+ `aws.es.ThreadpoolSearchQueue.byNode` + + `provider.ThreadpoolSearchQueue` +
+ `aws.es.ThreadpoolSearchRejected.byNode` + + `provider.ThreadpoolSearchRejected` +
+ `aws.es.ThreadpoolSearchThreads.byNode` + + `provider.ThreadpoolSearchThreads` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.elasticache.CPUCreditBalance.byMemcachedCluster` + + `provider.cpuCreditBalance` +
+ `aws.elasticache.CPUCreditUsage.byMemcachedCluster` + + `provider.cpuCreditUsage` +
+ `aws.elasticache.CPUUtilization.byMemcachedCluster` + + `provider.cpuUtilization` +
+ `aws.elasticache.DatabaseMemoryUsagePercentage.byMemcachedCluster` + + `provider.databaseMemoryUsagePercentage` +
+ `aws.elasticache.FreeableMemory.byMemcachedCluster` + + `provider.freeableMemory` +
+ `aws.elasticache.NetworkBytesIn.byMemcachedCluster` + + `provider.networkBytesIn` +
+ `aws.elasticache.NetworkBytesOut.byMemcachedCluster` + + `provider.networkBytesOut` +
+ `aws.elasticache.SwapUsage.byMemcachedCluster` + + `provider.swapUsage` +
+ `aws.elasticache.BytesReadIntoMemcached` + + `provider.bytesReadIntoMemcached` +
+ `aws.elasticache.BytesUsedForCacheItems` + + `provider.bytesUsedForCacheItems` +
+ `aws.elasticache.BytesUsedForHash` + + `provider.bytesUsedForHash` +
+ `aws.elasticache.BytesWrittenOutFromMemcached` + + `provider.bytesWrittenOutFromMemcached` +
+ `aws.elasticache.CasBadval` + + `provider.casBadval` +
+ `aws.elasticache.CasHits` + + `provider.casHits` +
+ `aws.elasticache.CasMisses` + + `provider.casMisses` +
+ `aws.elasticache.CmdConfigGet` + + `provider.cmdConfigGet` +
+ `aws.elasticache.CmdConfigSet` + + `provider.cmdConfigSet` +
+ `aws.elasticache.CmdFlush` + + `provider.cmdFlush` +
+ `aws.elasticache.CmdGet` + + `provider.cmdGet` +
+ `aws.elasticache.CmdSet` + + `provider.cmdSet` +
+ `aws.elasticache.CmdTouch` + + `provider.cmdTouch` +
+ `aws.elasticache.CPUCreditBalance.byMemcachedNode` + + `provider.cpuCreditBalance` +
+ `aws.elasticache.CPUCreditUsage.byMemcachedNode` + + `provider.cpuCreditUsage` +
+ `aws.elasticache.CPUUtilization.byMemcachedNode` + + `provider.cpuUtilization` +
+ `aws.elasticache.CurrConfig` + + `provider.currConfig` +
+ `aws.elasticache.CurrConnections.byMemcachedNode` + + `provider.currConnections` +
+ `aws.elasticache.CurrItems.byMemcachedNode` + + `provider.currItems` +
+ `aws.elasticache.DatabaseMemoryUsagePercentage.byMemcachedNode` + + `provider.databaseMemoryUsagePercentage` +
+ `aws.elasticache.DecrHits` + + `provider.decrHits` +
+ `aws.elasticache.DecrMisses` + + `provider.decrMisses` +
+ `aws.elasticache.DeleteHits` + + `provider.deleteHits` +
+ `aws.elasticache.DeleteMisses` + + `provider.deleteMisses` +
+ `aws.elasticache.EvictedUnfetched` + + `provider.evictedUnfetched` +
+ `aws.elasticache.Evictions.byMemcachedNode` + + `provider.evictions` +
+ `aws.elasticache.ExpiredUnfetched` + + `provider.expiredUnfetched` +
+ `aws.elasticache.FreeableMemory.byMemcachedNode` + + `provider.freeableMemory` +
+ `aws.elasticache.GetHits` + + `provider.getHits` +
+ `aws.elasticache.GetMisses` + + `provider.getMisses` +
+ `aws.elasticache.IncrHits` + + `provider.incrHits` +
+ `aws.elasticache.IncrMisses` + + `provider.incrMisses` +
+ `aws.elasticache.NetworkBytesIn.byMemcachedNode` + + `provider.networkBytesIn` +
+ `aws.elasticache.NetworkBytesOut.byMemcachedNode` + + `provider.networkBytesOut` +
+ `aws.elasticache.NewConnections.byMemcachedNode` + + `provider.newConnections` +
+ `aws.elasticache.NewItems` + + `provider.newItems` +
+ `aws.elasticache.Reclaimed.byMemcachedNode` + + `provider.reclaimed` +
+ `aws.elasticache.SlabsMoved` + + `provider.slabsMoved` +
+ `aws.elasticache.SwapUsage.byMemcachedNode` + + `provider.swapUsage` +
+ `aws.elasticache.TouchHits` + + `provider.touchHits` +
+ `aws.elasticache.TouchMisses` + + `provider.touchMisses` +
+ `aws.elasticache.UnusedMemory` + + `provider.unusedMemory` +
+ `aws.elasticache.ActiveDefragHits.byRedisCluster` + + `provider.activeDefragHits` +
+ `aws.elasticache.CPUCreditBalance.byRedisCluster` + + `provider.cpuCreditBalance` +
+ `aws.elasticache.CPUCreditUsage.byRedisCluster` + + `provider.cpuCreditUsage` +
+ `aws.elasticache.CPUUtilization.byRedisCluster` + + `provider.cpuUtilization` +
+ `aws.elasticache.DatabaseMemoryUsagePercentage.byRedisCluster` + + `provider.databaseMemoryUsagePercentage` +
+ `aws.elasticache.EngineCPUUtilization.byRedisCluster` + + `provider.engineCpuUtilization` +
+ `aws.elasticache.FreeableMemory.byRedisCluster` + + `provider.freeableMemory` +
+ `aws.elasticache.NetworkBytesIn.byRedisCluster` + + `provider.networkBytesIn` +
+ `aws.elasticache.NetworkBytesOut.byRedisCluster` + + `provider.networkBytesOut` +
+ `aws.elasticache.StreamBasedCmds.byRedisCluster` + + `provider.streamBasedCmds` +
+ `aws.elasticache.SwapUsage.byRedisCluster` + + `provider.swapUsage` +
+ `aws.elasticache.ActiveDefragHits.byRedisNode` + + `provider.activeDefragHits` +
+ `aws.elasticache.BytesUsedForCache` + + `provider.bytesUsedForCache` +
+ `aws.elasticache.CacheHitRate` + + `provider.cacheHitRate` +
+ `aws.elasticache.CacheHits` + + `provider.cacheHits` +
+ `aws.elasticache.CacheMisses` + + `provider.cacheMisses` +
+ `aws.elasticache.CPUCreditBalance.byRedisNode` + + `provider.cpuCreditBalance` +
+ `aws.elasticache.CPUCreditUsage.byRedisNode` + + `provider.cpuCreditUsage` +
+ `aws.elasticache.CPUUtilization.byRedisNode` + + `provider.cpuUtilization` +
+ `aws.elasticache.CurrConnections.byRedisNode` + + `provider.currConnections` +
+ `aws.elasticache.CurrItems.byRedisNode` + + `provider.currItems` +
+ `aws.elasticache.DatabaseMemoryUsagePercentage.byRedisNode` + + `provider.databaseMemoryUsagePercentage` +
+ `aws.elasticache.DB0AverageTTL` + + `provider.db0AverageTtl` +
+ `aws.elasticache.EngineCPUUtilization.byRedisNode` + + `provider.engineCpuUtilization` +
+ `aws.elasticache.EvalBasedCmds` + + `provider.evalBasedCmds` +
+ `aws.elasticache.EvalBasedCmdsLatency` + + `provider.evalBasedCmdsLatency` +
+ `aws.elasticache.Evictions.byRedisNode` + + `provider.evictions` +
+ `aws.elasticache.FreeableMemory.byRedisNode` + + `provider.freeableMemory` +
+ `aws.elasticache.GeoSpatialBasedCmds` + + `provider.geoSpatialBasedCmds` +
+ `aws.elasticache.GeoSpatialBasedCmdsLatency` + + `provider.geoSpatialBasedCmdsLatency` +
+ `aws.elasticache.GetTypeCmds` + + `provider.getTypeCmds` +
+ `aws.elasticache.GetTypeCmdsLatency` + + `provider.getTypeCmdsLatency` +
+ `aws.elasticache.HashBasedCmds` + + `provider.hashBasedCmds` +
+ `aws.elasticache.HashBasedCmdsLatency` + + `provider.hashBasedCmdsLatency` +
+ `aws.elasticache.HyperLogLogBasedCmds` + + `provider.hyperLogLogBasedCmds` +
+ `aws.elasticache.HyperLogLogBasedCmdsLatency` + + `provider.hyperLogLogBasedCmdsLatency` +
+ `aws.elasticache.KeyBasedCmds` + + `provider.keyBasedCmds` +
+ `aws.elasticache.KeyBasedCmdsLatency` + + `provider.keyBasedCmdsLatency` +
+ `aws.elasticache.ListBasedCmds` + + `provider.listBasedCmds` +
+ `aws.elasticache.ListBasedCmdsLatency` + + `provider.listBasedCmdsLatency` +
+ `aws.elasticache.MasterLinkHealthStatus` + + `provider.masterLinkHealthStatus` +
+ `aws.elasticache.MemoryFragmentationRatio` + + `provider.memoryFragmentationRatio` +
+ `aws.elasticache.NetworkBytesIn.byRedisNode` + + `provider.networkBytesIn` +
+ `aws.elasticache.NetworkBytesOut.byRedisNode` + + `provider.networkBytesOut` +
+ `aws.elasticache.NewConnections.byRedisNode` + + `provider.newConnections` +
+ `aws.elasticache.PubSubBasedCmds` + + `provider.pubSubBasedCmds` +
+ `aws.elasticache.PubSubBasedCmdsLatency` + + `provider.pubSubBasedCmdsLatency` +
+ `aws.elasticache.Reclaimed.byRedisNode` + + `provider.reclaimed` +
+ `aws.elasticache.ReplicationBytes` + + `provider.replicationBytes` +
+ `aws.elasticache.ReplicationLag` + + `provider.replicationLag` +
+ `aws.elasticache.SaveInProgress` + + `provider.saveInProgress` +
+ `aws.elasticache.SetBasedCmds` + + `provider.setBasedCmds` +
+ `aws.elasticache.SetBasedCmdsLatency` + + `provider.setBasedCmdsLatency` +
+ `aws.elasticache.SetTypeCmds` + + `provider.setTypeCmds` +
+ `aws.elasticache.SetTypeCmdsLatency` + + `provider.setTypeCmdsLatency` +
+ `aws.elasticache.SortedBasedCmdsLatency` + + `provider.sortedBasedCmdsLatency` +
+ `aws.elasticache.SortedSetBasedCmds` + + `provider.sortedSetBasedCmds` +
+ `aws.elasticache.StreamBasedCmds.byRedisNode` + + `provider.streamBasedCmds` +
+ `aws.elasticache.StreamBasedCmdsLatency` + + `provider.streamBasedCmdsLatency` +
+ `aws.elasticache.StringBasedCmds` + + `provider.stringBasedCmds` +
+ `aws.elasticache.StringBasedCmdsLatency` + + `provider.stringBasedCmdsLatency` +
+ `aws.elasticache.SwapUsage.byRedisNode` + + `provider.swapUsage` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.elasticbeanstalk.ApplicationLatencyP10.byEnvironment` + + `provider.applicationLatencyP10` +
+ `aws.elasticbeanstalk.ApplicationLatencyP50.byEnvironment` + + `provider.applicationLatencyP50` +
+ `aws.elasticbeanstalk.ApplicationLatencyP75.byEnvironment` + + `provider.applicationLatencyP75` +
+ `aws.elasticbeanstalk.ApplicationLatencyP85.byEnvironment` + + `provider.applicationLatencyP85` +
+ `aws.elasticbeanstalk.ApplicationLatencyP90.byEnvironment` + + `provider.applicationLatencyP90` +
+ `aws.elasticbeanstalk.ApplicationLatencyP95.byEnvironment` + + `provider.applicationLatencyP95` +
+ `aws.elasticbeanstalk.ApplicationLatencyP99.9.byEnvironment` + + `provider.applicationLatencyP99.9` +
+ `aws.elasticbeanstalk.ApplicationLatencyP99.byEnvironment` + + `provider.applicationLatencyP99` +
+ `aws.elasticbeanstalk.ApplicationRequests2xx.byEnvironment` + + `provider.applicationRequests2xx` +
+ `aws.elasticbeanstalk.ApplicationRequests3xx.byEnvironment` + + `provider.applicationRequests3xx` +
+ `aws.elasticbeanstalk.ApplicationRequests4xx.byEnvironment` + + `provider.applicationRequests4xx` +
+ `aws.elasticbeanstalk.ApplicationRequests5xx.byEnvironment` + + `provider.applicationRequests5xx` +
+ `aws.elasticbeanstalk.ApplicationRequestsTotal.byEnvironment` + + `provider.applicationRequestsTotal` +
+ `aws.elasticbeanstalk.EnvironmentHealth` + + `provider.environmentHealth` +
+ `aws.elasticbeanstalk.InstancesDegraded` + + `provider.instancesDegraded` +
+ `aws.elasticbeanstalk.InstancesInfo` + + `provider.instancesInfo` +
+ `aws.elasticbeanstalk.InstancesNoData` + + `provider.instancesNoData` +
+ `aws.elasticbeanstalk.InstancesOk` + + `provider.instancesOk` +
+ `aws.elasticbeanstalk.InstancesPending` + + `provider.instancesPending` +
+ `aws.elasticbeanstalk.InstancesSevere` + + `provider.instancesSevere` +
+ `aws.elasticbeanstalk.InstancesUnknown` + + `provider.instancesUnknown` +
+ `aws.elasticbeanstalk.InstancesWarning` + + `provider.instancesWarning` +
+ `aws.elasticbeanstalk.ApplicationLatencyP10.byInstance` + + `provider.applicationLatencyP10` +
+ `aws.elasticbeanstalk.ApplicationLatencyP50.byInstance` + + `provider.applicationLatencyP50` +
+ `aws.elasticbeanstalk.ApplicationLatencyP75.byInstance` + + `provider.applicationLatencyP75` +
+ `aws.elasticbeanstalk.ApplicationLatencyP85.byInstance` + + `provider.applicationLatencyP85` +
+ `aws.elasticbeanstalk.ApplicationLatencyP90.byInstance` + + `provider.applicationLatencyP90` +
+ `aws.elasticbeanstalk.ApplicationLatencyP95.byInstance` + + `provider.applicationLatencyP95` +
+ `aws.elasticbeanstalk.ApplicationLatencyP99.9.byInstance` + + `provider.applicationLatencyP99.9` +
+ `aws.elasticbeanstalk.ApplicationLatencyP99.byInstance` + + `provider.applicationLatencyP99` +
+ `aws.elasticbeanstalk.ApplicationRequests2xx.byInstance` + + `provider.applicationRequests2xx` +
+ `aws.elasticbeanstalk.ApplicationRequests3xx.byInstance` + + `provider.applicationRequests3xx` +
+ `aws.elasticbeanstalk.ApplicationRequests4xx.byInstance` + + `provider.applicationRequests4xx` +
+ `aws.elasticbeanstalk.ApplicationRequests5xx.byInstance` + + `provider.applicationRequests5xx` +
+ `aws.elasticbeanstalk.ApplicationRequestsTotal.byInstance` + + `provider.applicationRequestsTotal` +
+ `aws.elasticbeanstalk.CPUIdle` + + `provider.cpuIdle` +
+ `aws.elasticbeanstalk.CPUIowait` + + `provider.cpuIowait` +
+ `aws.elasticbeanstalk.CPUIrq` + + `provider.cpuIrq` +
+ `aws.elasticbeanstalk.CPUNice` + + `provider.cpuNice` +
+ `aws.elasticbeanstalk.CPUSoftirq` + + `provider.cpuSoftirq` +
+ `aws.elasticbeanstalk.CPUSystem` + + `provider.cpuSystem` +
+ `aws.elasticbeanstalk.CPUUser` + + `provider.cpuUser` +
+ `aws.elasticbeanstalk.InstanceHealth` + + `provider.instanceHealth` +
+ `aws.elasticbeanstalk.LoadAverage1min` + + `provider.loadAverage1min` +
+ `aws.elasticbeanstalk.RootFilesystemUtil` + + `provider.rootFilesystemUtil` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.elb.BackendConnectionErrors` + + `provider.backendConnectionErrors` +
+ `aws.elb.EstimatedALBActiveConnectionCount` + + `provider.estimatedAlbActiveConnectionCount` +
+ `aws.elb.EstimatedALBConsumedLCUs` + + `provider.estimatedAlbConsumedLcus` +
+ `aws.elb.EstimatedALBNewConnectionCount` + + `provider.estimatedAlbNewConnectionCount` +
+ `aws.elb.EstimatedProcessedBytes` + + `provider.estimatedProcessedBytes` +
+ `aws.elb.HealthyHostCount` + + `provider.healthyHostCount` +
+ `aws.elb.HTTPCode_Backend_2XX` + + `provider.httpCodeBackend2XX` +
+ `aws.elb.HTTPCode_Backend_3XX` + + `provider.httpCodeBackend3XX` +
+ `aws.elb.HTTPCode_Backend_4XX` + + `provider.httpCodeBackend4XX` +
+ `aws.elb.HTTPCode_Backend_5XX` + + `provider.httpCodeBackend5XX` +
+ `aws.elb.HTTPCode_ELB_4XX` + + `provider.httpCodeElb4XX` +
+ `aws.elb.HTTPCode_ELB_5XX` + + `provider.httpCodeElb5XX` +
+ `aws.elb.Latency` + + `provider.latency` +
+ `aws.elb.RequestCount` + + `provider.requestCount` +
+ `aws.elb.SpilloverCount` + + `provider.spilloverCount` +
+ `aws.elb.SurgeQueueLength` + + `provider.surgeQueueLength` +
+ `aws.elb.UnhealthyHostCount` + + `provider.unhealthyHostCount` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.elasticmapreduce.AppsCompleted` + + `provider.appsCompleted` +
+ `aws.elasticmapreduce.AppsFailed` + + `provider.appsFailed` +
+ `aws.elasticmapreduce.AppsKilled` + + `provider.appsKilled` +
+ `aws.elasticmapreduce.AppsPending` + + `provider.appsPending` +
+ `aws.elasticmapreduce.AppsRunning` + + `provider.appsRunning` +
+ `aws.elasticmapreduce.AppsSubmitted` + + `provider.appsSubmitted` +
+ `aws.elasticmapreduce.CapacityRemainingGB` + + `provider.capacityRemainingBytes` +
+ `aws.elasticmapreduce.ContainerAllocated` + + `provider.containerAllocated` +
+ `aws.elasticmapreduce.ContainerPending` + + `provider.containerPending` +
+ `aws.elasticmapreduce.ContainerPendingRatio` + + `provider.containerPendingRatio` +
+ `aws.elasticmapreduce.ContainerReserved` + + `provider.containerReserved` +
+ `aws.elasticmapreduce.CoreNodesPending` + + `provider.coreNodesPending` +
+ `aws.elasticmapreduce.CoreNodesRunning` + + `provider.coreNodesRunning` +
+ `aws.elasticmapreduce.CorruptBlocks` + + `provider.corruptBlocks` +
+ `aws.elasticmapreduce.HDFSBytesRead` + + `provider.hdfsReadBytes` +
+ `aws.elasticmapreduce.HDFSBytesWritten` + + `provider.hdfsWrittenBytes` +
+ `aws.elasticmapreduce.HDFSUtilization` + + `provider.hdfsUtilizationPercentage` +
+ `aws.elasticmapreduce.IsIdle` + + `provider.isIdle` +
+ `aws.elasticmapreduce.JobsFailed` + + `provider.jobsFailed` +
+ `aws.elasticmapreduce.JobsRunning` + + `provider.jobsRunning` +
+ `aws.elasticmapreduce.LiveDataNodes` + + `provider.liveDataNodesPercentage` +
+ `aws.elasticmapreduce.LiveTaskTrackers` + + `provider.liveTaskTrackersPercentage` +
+ `aws.elasticmapreduce.MapSlotsOpen` + + `provider.mapSlotsOpen` +
+ `aws.elasticmapreduce.MemoryAllocatedMB` + + `provider.memoryAllocatedBytes` +
+ `aws.elasticmapreduce.MemoryAvailableMB` + + `provider.memoryAvailableBytes` +
+ `aws.elasticmapreduce.MemoryReservedMB` + + `provider.memoryReservedBytes` +
+ `aws.elasticmapreduce.MemoryTotalMB` + + `provider.memoryTotalBytes` +
+ `aws.elasticmapreduce.MissingBlocks` + + `provider.missingBlocks` +
+ `aws.elasticmapreduce.MRActiveNodes` + + `provider.mrActiveNodes` +
+ `aws.elasticmapreduce.MRDecommissionedNodes` + + `provider.mrDecommissionedNodes` +
+ `aws.elasticmapreduce.MRLostNodes` + + `provider.mrLostNodes` +
+ `aws.elasticmapreduce.MRRebootedNodes` + + `provider.mrRebootedNodes` +
+ `aws.elasticmapreduce.MRTotalNodes` + + `provider.mrTotalNodes` +
+ `aws.elasticmapreduce.MRUnhealthyNodes` + + `provider.mrUnhealthyNodes` +
+ `aws.elasticmapreduce.PendingDeletionBlocks` + + `provider.pendingDeletionBlocks` +
+ `aws.elasticmapreduce.ReduceSlotsOpen` + + `provider.reduceSlotsOpen` +
+ `aws.elasticmapreduce.RemainingMapTasksPerSlot` + + `provider.remainingMapTasksPerSlot` +
+ `aws.elasticmapreduce.S3BytesRead` + + `provider.s3ReadBytes` +
+ `aws.elasticmapreduce.S3BytesWritten` + + `provider.s3WrittenBytes` +
+ `aws.elasticmapreduce.TaskNodesPending` + + `provider.taskNodesPending` +
+ `aws.elasticmapreduce.TaskNodesRunning` + + `provider.taskNodesRunning` +
+ `aws.elasticmapreduce.TotalLoad` + + `provider.totalLoad` +
+ `aws.elasticmapreduce.UnderReplicatedBlocks` + + `provider.underReplicatedBlocks` +
+ `aws.elasticmapreduce.YARNMemoryAvailablePercentage` + + `provider.yarnMemoryAvailablePercentage` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.fsx.DataReadBytes` + + `provider.dataReadBytes` +
+ `aws.fsx.DataReadOperations` + + `provider.dataReadOperations` +
+ `aws.fsx.DataWriteBytes` + + `provider.dataWriteBytes` +
+ `aws.fsx.DataWriteOperations` + + `provider.dataWriteOperations` +
+ `aws.fsx.FreeStorageCapacity` + + `provider.freeStorageCapacity` +
+ `aws.fsx.MetadataOperations` + + `provider.metadataOperations` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.glue.glue.ALL.jvm.heap.usage` + + `provider.glue.ALL.jvm.heap.usage` +
+ `aws.glue.glue.ALL.jvm.heap.used` + + `provider.glue.ALL.jvm.heap.used` +
+ `aws.glue.glue.ALL.s3.filesystem.read_bytes` + + `provider.glue.ALL.s3.filesystem.read_bytes` +
+ `aws.glue.glue.ALL.s3.filesystem.write_bytes` + + `provider.glue.ALL.s3.filesystem.write_bytes` +
+ `aws.glue.glue.ALL.system.cpuSystemLoad` + + `provider.glue.ALL.system.cpuSystemLoad` +
+ `aws.glue.glue.driver.aggregate.bytesRead` + + `provider.glue.driver.aggregate.bytesRead` +
+ `aws.glue.glue.driver.aggregate.elapsedTime` + + `provider.glue.driver.aggregate.elapsedTime` +
+ `aws.glue.glue.driver.aggregate.numCompletedStages` + + `provider.glue.driver.aggregate.numCompletedStages` +
+ `aws.glue.glue.driver.aggregate.numCompletedTasks` + + `provider.glue.driver.aggregate.numCompletedTasks` +
+ `aws.glue.glue.driver.aggregate.numFailedTasks` + + `provider.glue.driver.aggregate.numFailedTasks` +
+ `aws.glue.glue.driver.aggregate.numKilledTasks` + + `provider.glue.driver.aggregate.numKilledTasks` +
+ `aws.glue.glue.driver.aggregate.recordsRead` + + `provider.glue.driver.aggregate.recordsRead` +
+ `aws.glue.glue.driver.aggregate.shuffleBytesWritten` + + `provider.glue.driver.aggregate.shuffleBytesWritten` +
+ `aws.glue.glue.driver.aggregate.shuffleLocalBytesRead` + + `provider.glue.driver.aggregate.shuffleLocalBytesRead` +
+ `aws.glue.glue.driver.BlockManager.disk.diskSpaceUsed_MB` + + `provider.glue.driver.BlockManager.disk.diskSpaceUsed_MB` +
+ `aws.glue.glue.driver.ExecutorAllocationManager.executors.numberAllExecutors` + + `provider.glue.driver.ExecutorAllocationManager.executors.numberAllExecutors` +
+ `aws.glue.glue.driver.ExecutorAllocationManager.executors.numberMaxNeededExecutors` + + `provider.glue.driver.ExecutorAllocationManager.executors.numberMaxNeededExecutors` +
+ `aws.glue.glue.driver.jvm.heap.usage` + + `provider.glue.driver.jvm.heap.usage` +
+ `aws.glue.glue.driver.jvm.heap.used` + + `provider.glue.driver.jvm.heap.used` +
+ `aws.glue.glue.driver.s3.filesystem.read_bytes` + + `provider.glue.driver.s3.filesystem.read_bytes` +
+ `aws.glue.glue.driver.s3.filesystem.write_bytes` + + `provider.glue.driver.s3.filesystem.write_bytes` +
+ `aws.glue.glue.driver.system.cpuSystemLoad` + + `provider.glue.driver.system.cpuSystemLoad` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.iam.AccessKeysPerUserQuota` + + `AccessKeysPerUserQuota` +
+ `aws.iam.AccountAccessKeysPresent` + + `AccountAccessKeysPresent` +
+ `aws.iam.AccountMFAEnabled` + + `AccountMFAEnabled` +
+ `aws.iam.AccountSigningCertificatesPresent` + + `AccountSigningCertificatesPresent` +
+ `aws.iam.AssumeRolePolicySizeQuota` + + `AssumeRolePolicySizeQuota` +
+ `aws.iam.AttachedPoliciesPerGroupQuota` + + `AttachedPoliciesPerGroupQuota` +
+ `aws.iam.AttachedPoliciesPerRoleQuota` + + `AttachedPoliciesPerRoleQuota` +
+ `aws.iam.AttachedPoliciesPerUserQuota` + + `AttachedPoliciesPerUserQuota` +
+ `aws.iam.GlobalEndpointTokenVersion` + + `GlobalEndpointTokenVersion` +
+ `aws.iam.GroupPolicySizeQuota` + + `GroupPolicySizeQuota` +
+ `aws.iam.Groups` + + `Groups` +
+ `aws.iam.GroupsPerUserQuota` + + `GroupsPerUserQuota` +
+ `aws.iam.GroupsQuota` + + `GroupsQuota` +
+ `aws.iam.InstanceProfiles` + + `InstanceProfiles` +
+ `aws.iam.InstanceProfilesQuota` + + `InstanceProfilesQuota` +
+ `aws.iam.MFADevices` + + `MFADevices` +
+ `aws.iam.MFADevicesInUse` + + `MFADevicesInUse` +
+ `aws.iam.Policies` + + `Policies` +
+ `aws.iam.PoliciesQuota` + + `PoliciesQuota` +
+ `aws.iam.PolicySizeQuota` + + `PolicySizeQuota` +
+ `aws.iam.PolicyVersionsInUse` + + `PolicyVersionsInUse` +
+ `aws.iam.PolicyVersionsInUseQuota` + + `PolicyVersionsInUseQuota` +
+ `aws.iam.Providers` + + `Providers` +
+ `aws.iam.RolePolicySizeQuota` + + `RolePolicySizeQuota` +
+ `aws.iam.Roles` + + `Roles` +
+ `aws.iam.RolesQuota` + + `RolesQuota` +
+ `aws.iam.ServerCertificates` + + `ServerCertificates` +
+ `aws.iam.ServerCertificatesQuota` + + `ServerCertificatesQuota` +
+ `aws.iam.SigningCertificatesPerUserQuota` + + `SigningCertificatesPerUserQuota` +
+ `aws.iam.UserPolicySizeQuota` + + `UserPolicySizeQuota` +
+ `aws.iam.Users` + + `Users` +
+ `aws.iam.UsersQuota` + + `UsersQuota` +
+ `aws.iam.VersionsPerPolicyQuota` + + `VersionsPerPolicyQuota` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.iot.Connect.AuthError` + + `provider.connect.AuthError` +
+ `aws.iot.Connect.ClientError` + + `provider.connect.ClientError` +
+ `aws.iot.Connect.ServerError` + + `provider.connect.ServerError` +
+ `aws.iot.Connect.Success` + + `provider.connect.Success` +
+ `aws.iot.Connect.Throttle` + + `provider.connect.Throttle` +
+ `aws.iot.DeleteThingShadow.Accepted` + + `provider.deleteThingShadow.Accepted` +
+ `aws.iot.GetThingShadow.Accepted` + + `provider.getThingShadow.Accepted` +
+ `aws.iot.Ping.Success` + + `provider.ping.Success` +
+ `aws.iot.PublishIn.AuthError` + + `provider.publishIn.AuthError` +
+ `aws.iot.PublishIn.ClientError` + + `provider.publishIn.ClientError` +
+ `aws.iot.PublishIn.ServerError` + + `provider.publishIn.ServerError` +
+ `aws.iot.PublishIn.Success` + + `provider.publishIn.Success` +
+ `aws.iot.PublishIn.Throttle` + + `provider.publishIn.Throttle` +
+ `aws.iot.PublishOut.AuthError` + + `provider.publishOut.AuthError` +
+ `aws.iot.PublishOut.ClientError` + + `provider.publishOut.ClientError` +
+ `aws.iot.PublishOut.Success` + + `provider.publishOut.Success` +
+ `aws.iot.Subscribe.AuthError` + + `provider.subscribe.AuthError` +
+ `aws.iot.Subscribe.ClientError` + + `provider.subscribe.ClientError` +
+ `aws.iot.Subscribe.ServerError` + + `provider.subscribe.ServerError` +
+ `aws.iot.Subscribe.Success` + + `provider.subscribe.Success` +
+ `aws.iot.Subscribe.Throttle` + + `provider.subscribe.Throttle` +
+ `aws.iot.Unsubscribe.ClientError` + + `provider.unsubscribe.ClientError` +
+ `aws.iot.Unsubscribe.ServerError` + + `provider.unsubscribe.ServerError` +
+ `aws.iot.Unsubscribe.Success` + + `provider.unsubscribe.Success` +
+ `aws.iot.Unsubscribe.Throttle` + + `provider.unsubscribe.Throttle` +
+ `aws.iot.UpdateThingShadow.Accepted` + + `provider.updateThingShadow.Accepted` +
+ `aws.iot.ParseError` + + `provider.parseError` +
+ `aws.iot.RuleMessageThrottled` + + `provider.ruleMessageThrottled` +
+ `aws.iot.RuleNotFound` + + `provider.RuleNotFound` +
+ `aws.iot.TopicMatch` + + `provider.topicMatch` +
+ `aws.iot.Failure` + + `provider.failure` +
+ `aws.iot.Success` + + `provider.success` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.kinesis.GetRecords.Bytes` + + `provider.getRecordsBytes` +
+ `aws.kinesis.GetRecords.IteratorAgeMilliseconds` + + `provider.getRecordsIteratorAgeMilliseconds` +
+ `aws.kinesis.GetRecords.Latency` + + `provider.getRecordsLatency` +
+ `aws.kinesis.GetRecords.Records` + + `provider.getRecordsRecords` +
+ `aws.kinesis.GetRecords.Success` + + `provider.getRecordsSuccess` +
+ `aws.kinesis.IncomingBytes.byStream` + + `provider.incomingBytes` +
+ `aws.kinesis.IncomingRecords.byStream` + + `provider.incomingRecords` +
+ `aws.kinesis.PutRecord.Bytes` + + `provider.putRecordBytes` +
+ `aws.kinesis.PutRecord.Latency` + + `provider.putRecordLatency` +
+ `aws.kinesis.PutRecord.Success` + + `provider.putRecordSuccess` +
+ `aws.kinesis.PutRecords.Bytes` + + `provider.putRecordsBytes` +
+ `aws.kinesis.PutRecords.Latency` + + `provider.putRecordsLatency` +
+ `aws.kinesis.PutRecords.Records` + + `provider.putRecordsRecords` +
+ `aws.kinesis.PutRecords.Success` + + `provider.putRecordsSuccess` +
+ `aws.kinesis.ReadProvisionedThroughputExceeded.byStream` + + `provider.readProvisionedThroughputExceeded` +
+ `aws.kinesis.WriteProvisionedThroughputExceeded.byStream` + + `provider.writeProvisionedThroughputExceeded` +
+ `aws.kinesis.IncomingBytes.byStreamShard` + + `provider.incomingBytes` +
+ `aws.kinesis.IncomingRecords.byStreamShard` + + `provider.incomingRecords` +
+ `aws.kinesis.IteratorAgeMilliseconds` + + `provider.iteratorAgeMilliseconds` +
+ `aws.kinesis.OutgoingBytes` + + `provider.outgoingBytes` +
+ `aws.kinesis.OutgoingRecords` + + `provider.outgoingRecords` +
+ `aws.kinesis.ReadProvisionedThroughputExceeded.byStreamShard` + + `provider.readProvisionedThroughputExceeded` +
+ `aws.kinesis.WriteProvisionedThroughputExceeded.byStreamShard` + + `provider.writeProvisionedThroughputExceeded` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.firehose.DeliveryToElasticsearch.Bytes` + + `provider.deliveryToElasticsearchBytes` +
+ `aws.firehose.DeliveryToElasticsearch.Records` + + `provider.deliveryToElasticsearchRecords` +
+ `aws.firehose.DeliveryToElasticsearch.Success` + + `provider.deliveryToElasticsearchSuccess` +
+ `aws.firehose.DeliveryToRedshift.Bytes` + + `provider.deliveryToRedshiftBytes` +
+ `aws.firehose.DeliveryToRedshift.Records` + + `provider.deliveryToRedshiftRecords` +
+ `aws.firehose.DeliveryToRedshift.Success` + + `provider.deliveryToRedshiftSuccess` +
+ `aws.firehose.DeliveryToS3.Bytes` + + `provider.deliveryToS3Bytes` +
+ `aws.firehose.DeliveryToS3.DataFreshness` + + `provider.deliveryToS3DataFreshness` +
+ `aws.firehose.DeliveryToS3.Records` + + `provider.deliveryToS3Records` +
+ `aws.firehose.DeliveryToS3.Success` + + `provider.deliveryToS3Success` +
+ `aws.firehose.IncomingBytes` + + `provider.incomingBytes` +
+ `aws.firehose.IncomingRecords` + + `provider.incomingRecords` +
+ `aws.firehose.PutRecord.Bytes` + + `provider.putRecordBytes` +
+ `aws.firehose.PutRecord.Latency` + + `provider.putRecordLatency` +
+ `aws.firehose.PutRecord.Requests` + + `provider.putRecordRequests` +
+ `aws.firehose.PutRecordBatch.Bytes` + + `provider.putRecordBatchBytes` +
+ `aws.firehose.PutRecordBatch.Latency` + + `provider.putRecordBatchLatency` +
+ `aws.firehose.PutRecordBatch.Records` + + `provider.putRecordBatchRecords` +
+ `aws.firehose.PutRecordBatch.Requests` + + `provider.putRecordBatchRequests` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.lambda.ConcurrentExecutions.byFunction` + + `provider.concurrentExecutions` +
+ `aws.lambda.DeadLetterErrors.byFunction` + + `provider.deadLetterErrors` +
+ `aws.lambda.Duration.byFunction` + + `provider.duration` +
+ `aws.lambda.Errors.byFunction` + + `provider.errors` +
+ `aws.lambda.Invocations.byFunction` + + `provider.invocations` +
+ `aws.lambda.IteratorAge.byFunction` + + `provider.iteratorAge` +
+ `aws.lambda.ProvisionedConcurrencyInvocations.byFunction` + + `provider.provisionedConcurrencyInvocations` +
+ `aws.lambda.ProvisionedConcurrencySpilloverInvocations.byFunction` + + `provider.provisionedConcurrencySpilloverInvocations` +
+ `aws.lambda.ProvisionedConcurrentExecutions.byFunction` + + `provider.provisionedConcurrentExecutions` +
+ `aws.lambda.Throttles.byFunction` + + `provider.throttles` +
+ `aws.lambda.DeadLetterErrors.byFunctionAlias` + + `provider.deadLetterErrors` +
+ `aws.lambda.Duration.byFunctionAlias` + + `provider.duration` +
+ `aws.lambda.Errors.byFunctionAlias` + + `provider.errors` +
+ `aws.lambda.Invocations.byFunctionAlias` + + `provider.invocations` +
+ `aws.lambda.IteratorAge.byFunctionAlias` + + `provider.iteratorAge` +
+ `aws.lambda.ProvisionedConcurrencyInvocations.byFunctionAlias` + + `provider.provisionedConcurrencyInvocations` +
+ `aws.lambda.ProvisionedConcurrencySpilloverInvocations.byFunctionAlias` + + `provider.provisionedConcurrencySpilloverInvocations` +
+ `aws.lambda.ProvisionedConcurrencyUtilization.byFunctionAlias` + + `provider.provisionedConcurrencyUtilization` +
+ `aws.lambda.ProvisionedConcurrentExecutions.byFunctionAlias` + + `provider.provisionedConcurrentExecutions` +
+ `aws.lambda.Throttles.byFunctionAlias` + + `provider.throttles` +
+ `aws.lambda.ConcurrentExecutions.byRegion` + + `provider.concurrentExecutions` +
+ `aws.lambda.UnreservedConcurrentExecutions` + + `provider.unreservedConcurrentExecutions` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.mediaconvert.8KOutputDuration` + + `provider.8KOutputDuration` +
+ `aws.mediaconvert.AudioOutputDuration` + + `provider.audioOutputDuration` +
+ `aws.mediaconvert.HDOutputDuration` + + `provider.hDOutputDuration` +
+ `aws.mediaconvert.JobsCompletedCount` + + `provider.jobsCompletedCount` +
+ `aws.mediaconvert.JobsErroredCount` + + `provider.jobsErroredCount` +
+ `aws.mediaconvert.SDOutputDuration` + + `provider.sDOutputDuration` +
+ `aws.mediaconvert.StandbyTime` + + `provider.standbyTime` +
+ `aws.mediaconvert.TranscodingTime` + + `provider.transcodingTime` +
+ `aws.mediaconvert.UHDOutputDuration` + + `provider.uHDOutputDuration` +
+ `aws.mediaconvert.Errors` + + `provider.errors` +
+
+ + + + + + + + + + + + + + + + + + + + + + +
+ `aws.mediapackage.EgressBytes` + + `provider.egressBytes` +
+ `aws.mediapackage.EgressRequestCount` + + `provider.egressRequestCount` +
+ `aws.mediapackage.EgressResponseTime` + + `provider.egressResponseTime` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ AWS MQ + + `aws.amazonmq.CpuCreditBalance` + + `provider.cpuCreditBalance` +
+ `aws.amazonmq.CpuUtilization` + + `provider.cpuUtilization` +
+ `aws.amazonmq.CurrentConnectionsCount` + + `provider.currentConnectionsCount` +
+ `aws.amazonmq.EstablishedConnectionsCount` + + `provider.establishedConnectionsCount` +
+ `aws.amazonmq.HeapUsage` + + `provider.heapUsage` +
+ `aws.amazonmq.InactiveDurableTopicSubscribersCount` + + `provider.inactiveDurableTopicSubscribersCount` +
+ `aws.amazonmq.JournalFilesForFastRecovery` + + `provider.journalFilesForFastRecovery` +
+ `aws.amazonmq.JournalFilesForFullRecovery` + + `provider.journalFilesForFullRecovery` +
+ `aws.amazonmq.NetworkIn` + + `provider.networkIn` +
+ `aws.amazonmq.NetworkOut` + + `provider.networkOut` +
+ `aws.amazonmq.OpenTransactionsCount` + + `provider.openTransactionsCount` +
+ `aws.amazonmq.StorePercentUsage` + + `provider.storePercentUsage` +
+ `aws.amazonmq.TotalConsumerCount` + + `provider.totalConsumerCount` +
+ `aws.amazonmq.TotalMessageCount` + + `provider.totalMessageCount` +
+ `aws.amazonmq.TotalProducerCount` + + `provider.totalProducerCount` +
+ `aws.amazonmq.ConsumerCount.byTopic` + + `provider.consumerCount` +
+ `aws.amazonmq.DequeueCount.byTopic` + + `provider.dequeueCount` +
+ `aws.amazonmq.DispatchCount.byTopic` + + `provider.dispatchCount` +
+ `aws.amazonmq.EnqueueCount.byTopic` + + `provider.enqueueCount` +
+ `aws.amazonmq.EnqueueTime.byTopic` + + `provider.enqueueTime` +
+ `aws.amazonmq.ExpiredCount.byTopic` + + `provider.expiredCount` +
+ `aws.amazonmq.InFlightCount.byTopic` + + `provider.inFlightCount` +
+ `aws.amazonmq.MemoryUsage.byTopic` + + `provider.memoryUsage` +
+ `aws.amazonmq.ProducerCount.byTopic` + + `provider.producerCount` +
+ `aws.amazonmq.ReceiveCount.byTopic` + + `provider.receiveCount` +
+ `aws.amazonmq.ConsumerCount.byQueue` + + `provider.consumerCount` +
+ `aws.amazonmq.DequeueCount.byQueue` + + `provider.dequeueCount` +
+ `aws.amazonmq.DispatchCount.byQueue` + + `provider.dispatchCount` +
+ `aws.amazonmq.EnqueueCount.byQueue` + + `provider.enqueueCount` +
+ `aws.amazonmq.EnqueueTime.byQueue` + + `provider.enqueueTime` +
+ `aws.amazonmq.ExpiredCount.byQueue` + + `provider.expiredCount` +
+ `aws.amazonmq.InFlightCount.byQueue` + + `provider.inFlightCount` +
+ `aws.amazonmq.MemoryUsage.byQueue` + + `provider.memoryUsage` +
+ `aws.amazonmq.ProducerCount.byQueue` + + `provider.producerCount` +
+ `aws.amazonmq.QueueSize` + + `provider.queueSize` +
+ `aws.amazonmq.ReceiveCount.byQueue` + + `provider.receiveCount` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.kafka.ActiveControllerCount` + + `provider.activeControllerCount` +
+ `aws.kafka.GlobalPartitionCount` + + `provider.globalPartitionCount` +
+ `aws.kafka.GlobalTopicCount` + + `provider.globalTopicCount` +
+ `aws.kafka.OfflinePartitionsCount` + + `provider.offlinePartitionsCount` +
+ `aws.kafka.BytesInPerSec.byBroker` + + `provider.bytesInPerSec` +
+ `aws.kafka.BytesOutPerSec.byBroker` + + `provider.bytesOutPerSec` +
+ `aws.kafka.CpuIdle` + + `provider.cpuIdle` +
+ `aws.kafka.CpuSystem` + + `provider.cpuSystem` +
+ `aws.kafka.CpuUser` + + `provider.cpuUser` +
+ `aws.kafka.FetchConsumerLocalTimeMsMean` + + `provider.fetchConsumerLocalTimeMsMean` +
+ `aws.kafka.FetchConsumerRequestQueueTimeMsMean` + + `provider.fetchConsumerRequestQueueTimeMsMean` +
+ `aws.kafka.FetchConsumerResponseQueueTimeMsMean` + + `provider.fetchConsumerResponseQueueTimeMsMean` +
+ `aws.kafka.FetchConsumerResponseSendTimeMsMean` + + `provider.fetchConsumerResponseSendTimeMsMean` +
+ `aws.kafka.FetchConsumerTotalTimeMsMean` + + `provider.fetchConsumerTotalTimeMsMean` +
+ `aws.kafka.FetchFollowerLocalTimeMsMean` + + `provider.fetchFollowerLocalTimeMsMean` +
+ `aws.kafka.FetchFollowerRequestQueueTimeMsMean` + + `provider.fetchFollowerRequestQueueTimeMsMean` +
+ `aws.kafka.FetchFollowerResponseQueueTimeMsMean` + + `provider.fetchFollowerResponseQueueTimeMsMean` +
+ `aws.kafka.FetchFollowerResponseSendTimeMsMean` + + `provider.fetchFollowerResponseSendTimeMsMean` +
+ `aws.kafka.FetchFollowerTotalTimeMsMean` + + `provider.fetchFollowerTotalTimeMsMean` +
+ `aws.kafka.FetchMessageConversionsPerSec.byBroker` + + `provider.fetchMessageConversionsPerSec` +
+ `aws.kafka.FetchThrottleByteRate` + + `provider.fetchThrottleByteRate` +
+ `aws.kafka.FetchThrottleQueueSize` + + `provider.fetchThrottleQueueSize` +
+ `aws.kafka.FetchThrottleTime` + + `provider.fetchThrottleTime` +
+ `aws.kafka.KafkaAppLogsDiskUsed` + + `provider.kafkaAppLogsDiskUsed` +
+ `aws.kafka.KafkaDataLogsDiskUsed` + + `provider.kafkaDataLogsDiskUsed` +
+ `aws.kafka.LeaderCount` + + `provider.leaderCount` +
+ `aws.kafka.MemoryBuffered` + + `provider.memoryBuffered` +
+ `aws.kafka.MemoryCached` + + `provider.memoryCached` +
+ `aws.kafka.MemoryFree` + + `provider.memoryFree` +
+ `aws.kafka.MemoryUsed` + + `provider.memoryUsed` +
+ `aws.kafka.MessagesInPerSec.byBroker` + + `provider.messagesInPerSec` +
+ `aws.kafka.NetworkProcessorAvgIdlePercent` + + `provider.networkProcessorAvgIdlePercent` +
+ `aws.kafka.NetworkRxDropped` + + `provider.networkRxDropped` +
+ `aws.kafka.NetworkRxErrors` + + `provider.networkRxErrors` +
+ `aws.kafka.NetworkRxPackets` + + `provider.networkRxPackets` +
+ `aws.kafka.NetworkTxDropped` + + `provider.networkTxDropped` +
+ `aws.kafka.NetworkTxErrors` + + `provider.networkTxErrors` +
+ `aws.kafka.NetworkTxPackets` + + `provider.networkTxPackets` +
+ `aws.kafka.PartitionCount` + + `provider.partitionCount` +
+ `aws.kafka.ProduceLocalTimeMsMean` + + `provider.produceLocalTimeMsMean` +
+ `aws.kafka.ProduceMessageConversionsPerSec.byBroker` + + `provider.produceMessageConversionsPerSec` +
+ `aws.kafka.ProduceMessageConversionsTimeMsMean` + + `provider.produceMessageConversionsTimeMsMean` +
+ `aws.kafka.ProduceRequestQueueTimeMsMean` + + `provider.produceRequestQueueTimeMsMean` +
+ `aws.kafka.ProduceResponseQueueTimeMsMean` + + `provider.produceResponseQueueTimeMsMean` +
+ `aws.kafka.ProduceResponseSendTimeMsMean` + + `provider.produceResponseSendTimeMsMean` +
+ `aws.kafka.ProduceThrottleByteRate` + + `provider.produceThrottleByteRate` +
+ `aws.kafka.ProduceThrottleQueueSize` + + `provider.produceThrottleQueueSize` +
+ `aws.kafka.ProduceThrottleTime` + + `provider.produceThrottleTime` +
+ `aws.kafka.ProduceTotalTimeMsMean` + + `provider.produceTotalTimeMsMean` +
+ `aws.kafka.RequestBytesMean` + + `provider.requestBytesMean` +
+ `aws.kafka.RequestExemptFromThrottleTime` + + `provider.requestExemptFromThrottleTime` +
+ `aws.kafka.RequestHandlerAvgIdlePercent` + + `provider.requestHandlerAvgIdlePercent` +
+ `aws.kafka.RequestThrottleQueueSize` + + `provider.requestThrottleQueueSize` +
+ `aws.kafka.RequestThrottleTime` + + `provider.requestThrottleTime` +
+ `aws.kafka.RequestTime` + + `provider.requestTime` +
+ `aws.kafka.RootDiskUsed` + + `provider.rootDiskUsed` +
+ `aws.kafka.SwapFree` + + `provider.swapFree` +
+ `aws.kafka.SwapUsed` + + `provider.swapUsed` +
+ `aws.kafka.UnderMinIsrPartitionCount` + + `provider.underMinIsrPartitionCount` +
+ `aws.kafka.UnderReplicatedPartitions` + + `provider.underReplicatedPartitions` +
+ `aws.kafka.ZooKeeperRequestLatencyMsMean` + + `provider.zooKeeperRequestLatencyMsMean` +
+ `aws.kafka.ZooKeeperSessionState` + + `provider.zooKeeperSessionState` +
+ `aws.kafka.BytesInPerSec.byTopic` + + `provider.bytesInPerSec` +
+ `aws.kafka.BytesOutPerSec.byTopic` + + `provider.bytesOutPerSec` +
+ `aws.kafka.FetchMessageConversionsPerSec.byTopic` + + `provider.fetchMessageConversionsPerSec` +
+ `aws.kafka.MessagesInPerSec.byTopic` + + `provider.messagesInPerSec` +
+ `aws.kafka.ProduceMessageConversionsPerSec.byTopic` + + `provider.produceMessageConversionsPerSec` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.neptune.BackupRetentionPeriodStorageUsed.byInstance` + + `provider.backupRetentionPeriodStorageUsed` +
+ `aws.neptune.ClusterReplicaLag.byInstance` + + `provider.clusterReplicaLag` +
+ `aws.neptune.ClusterReplicaLagMaximum.byInstance` + + `provider.clusterReplicaLagMaximum` +
+ `aws.neptune.ClusterReplicaLagMinimum.byInstance` + + `provider.clusterReplicaLagMinimum` +
+ `aws.neptune.CPUUtilization.byInstance` + + `provider.cpuUtilization` +
+ `aws.neptune.EngineUptime.byInstance` + + `provider.engineUptime` +
+ `aws.neptune.FreeableMemory.byInstance` + + `provider.freeableMemory` +
+ `aws.neptune.GremlinRequestsPerSec.byInstance` + + `provider.gremlinRequestsPerSec` +
+ `aws.neptune.GremlinWebSocketOpenConnections.byInstance` + + `provider.gremlinWebSocketOpenConnections` +
+ `aws.neptune.LoaderRequestsPerSec.byInstance` + + `provider.loaderRequestsPerSec` +
+ `aws.neptune.MainRequestQueuePendingRequests.byInstance` + + `provider.mainRequestQueuePendingRequests` +
+ `aws.neptune.NetworkReceiveThroughput.byInstance` + + `provider.networkReceiveThroughput` +
+ `aws.neptune.NetworkThroughput.byInstance` + + `provider.networkThroughput` +
+ `aws.neptune.NetworkTransmitThroughput.byInstance` + + `provider.networkTransmitThroughput` +
+ `aws.neptune.NumTxCommitted.byInstance` + + `provider.numTxCommitted` +
+ `aws.neptune.NumTxOpened.byInstance` + + `provider.numTxOpened` +
+ `aws.neptune.NumTxRolledBack.byInstance` + + `provider.numTxRolledBack` +
+ `aws.neptune.SnapshotStorageUsed.byInstance` + + `provider.snapshotStorageUsed` +
+ `aws.neptune.SparqlRequestsPerSec.byInstance` + + `provider.sparqlRequestsPerSec` +
+ `aws.neptune.TotalBackupStorageBilled.byInstance` + + `provider.totalBackupStorageBilled` +
+ `aws.neptune.TotalClientErrorsPerSec.byInstance` + + `provider.totalClientErrorsPerSec` +
+ `aws.neptune.TotalRequestsPerSec.byInstance` + + `provider.totalRequestsPerSec` +
+ `aws.neptune.TotalServerErrorsPerSec.byInstance` + + `provider.totalServerErrorsPerSec` +
+ `aws.neptune.VolumeBytesUsed.byInstance` + + `provider.volumeBytesUsed` +
+ `aws.neptune.VolumeReadIOPs.byInstance` + + `provider.volumeReadIOPs` +
+ `aws.neptune.VolumeWriteIOPs.byInstance` + + `provider.volumeWriteIOPs` +
+ `aws.neptune.BackupRetentionPeriodStorageUsed.byCluster` + + `provider.backupRetentionPeriodStorageUsed` +
+ `aws.neptune.ClusterReplicaLag.byCluster` + + `provider.clusterReplicaLag` +
+ `aws.neptune.ClusterReplicaLagMaximum.byCluster` + + `provider.clusterReplicaLagMaximum` +
+ `aws.neptune.ClusterReplicaLagMinimum.byCluster` + + `provider.clusterReplicaLagMinimum` +
+ `aws.neptune.CPUUtilization.byCluster` + + `provider.cpuUtilization` +
+ `aws.neptune.EngineUptime.byCluster` + + `provider.engineUptime` +
+ `aws.neptune.FreeableMemory.byCluster` + + `provider.freeableMemory` +
+ `aws.neptune.GremlinRequestsPerSec.byCluster` + + `provider.gremlinRequestsPerSec` +
+ `aws.neptune.GremlinWebSocketOpenConnections.byCluster` + + `provider.gremlinWebSocketOpenConnections` +
+ `aws.neptune.LoaderRequestsPerSec.byCluster` + + `provider.loaderRequestsPerSec` +
+ `aws.neptune.MainRequestQueuePendingRequests.byCluster` + + `provider.mainRequestQueuePendingRequests` +
+ `aws.neptune.NetworkReceiveThroughput.byCluster` + + `provider.networkReceiveThroughput` +
+ `aws.neptune.NetworkThroughput.byCluster` + + `provider.networkThroughput` +
+ `aws.neptune.NetworkTransmitThroughput.byCluster` + + `provider.networkTransmitThroughput` +
+ `aws.neptune.NumTxCommitted.byCluster` + + `provider.numTxCommitted` +
+ `aws.neptune.NumTxOpened.byCluster` + + `provider.numTxOpened` +
+ `aws.neptune.NumTxRolledBack.byCluster` + + `provider.numTxRolledBack` +
+ `aws.neptune.SnapshotStorageUsed.byCluster` + + `provider.snapshotStorageUsed` +
+ `aws.neptune.SparqlRequestsPerSec.byCluster` + + `provider.sparqlRequestsPerSec` +
+ `aws.neptune.TotalBackupStorageBilled.byCluster` + + `provider.totalBackupStorageBilled` +
+ `aws.neptune.TotalClientErrorsPerSec.byCluster` + + `provider.totalClientErrorsPerSec` +
+ `aws.neptune.TotalRequestsPerSec.byCluster` + + `provider.totalRequestsPerSec` +
+ `aws.neptune.TotalServerErrorsPerSec.byCluster` + + `provider.totalServerErrorsPerSec` +
+ `aws.neptune.VolumeBytesUsed.byCluster` + + `provider.volumeBytesUsed` +
+ `aws.neptune.VolumeReadIOPs.byCluster` + + `provider.volumeReadIOPs` +
+ `aws.neptune.VolumeWriteIOPs.byCluster` + + `provider.volumeWriteIOPs` +
+ `aws.neptune.BackupRetentionPeriodStorageUsed.byClusterByRole` + + `provider.backupRetentionPeriodStorageUsed` +
+ `aws.neptune.ClusterReplicaLag.byClusterByRole` + + `provider.clusterReplicaLag` +
+ `aws.neptune.ClusterReplicaLagMaximum.byClusterByRole` + + `provider.clusterReplicaLagMaximum` +
+ `aws.neptune.ClusterReplicaLagMinimum.byClusterByRole` + + `provider.clusterReplicaLagMinimum` +
+ `aws.neptune.CPUUtilization.byClusterByRole` + + `provider.cpuUtilization` +
+ `aws.neptune.EngineUptime.byClusterByRole` + + `provider.engineUptime` +
+ `aws.neptune.FreeableMemory.byClusterByRole` + + `provider.freeableMemory` +
+ `aws.neptune.GremlinRequestsPerSec.byClusterByRole` + + `provider.gremlinRequestsPerSec` +
+ `aws.neptune.GremlinWebSocketOpenConnections.byClusterByRole` + + `provider.gremlinWebSocketOpenConnections` +
+ `aws.neptune.LoaderRequestsPerSec.byClusterByRole` + + `provider.loaderRequestsPerSec` +
+ `aws.neptune.MainRequestQueuePendingRequests.byClusterByRole` + + `provider.mainRequestQueuePendingRequests` +
+ `aws.neptune.NetworkReceiveThroughput.byClusterByRole` + + `provider.networkReceiveThroughput` +
+ `aws.neptune.NetworkThroughput.byClusterByRole` + + `provider.networkThroughput` +
+ `aws.neptune.NetworkTransmitThroughput.byClusterByRole` + + `provider.networkTransmitThroughput` +
+ `aws.neptune.NumTxCommitted.byClusterByRole` + + `provider.numTxCommitted` +
+ `aws.neptune.NumTxOpened.byClusterByRole` + + `provider.numTxOpened` +
+ `aws.neptune.NumTxRolledBack.byClusterByRole` + + `provider.numTxRolledBack` +
+ `aws.neptune.SnapshotStorageUsed.byClusterByRole` + + `provider.snapshotStorageUsed` +
+ `aws.neptune.SparqlRequestsPerSec.byClusterByRole` + + `provider.sparqlRequestsPerSec` +
+ `aws.neptune.TotalBackupStorageBilled.byClusterByRole` + + `provider.totalBackupStorageBilled` +
+ `aws.neptune.TotalClientErrorsPerSec.byClusterByRole` + + `provider.totalClientErrorsPerSec` +
+ `aws.neptune.TotalRequestsPerSec.byClusterByRole` + + `provider.totalRequestsPerSec` +
+ `aws.neptune.TotalServerErrorsPerSec.byClusterByRole` + + `provider.totalServerErrorsPerSec` +
+ `aws.neptune.VolumeBytesUsed.byClusterByRole` + + `provider.volumeBytesUsed` +
+ `aws.neptune.VolumeReadIOPs.byClusterByRole` + + `provider.volumeReadIOPs` +
+ `aws.neptune.VolumeWriteIOPs.byClusterByRole` + + `provider.volumeWriteIOPs` +
+ `aws.neptune.BackupRetentionPeriodStorageUsed.byDatabaseClass` + + `provider.backupRetentionPeriodStorageUsed` +
+ `aws.neptune.ClusterReplicaLag.byDatabaseClass` + + `provider.clusterReplicaLag` +
+ `aws.neptune.ClusterReplicaLagMaximum.byDatabaseClass` + + `provider.clusterReplicaLagMaximum` +
+ `aws.neptune.ClusterReplicaLagMinimum.byDatabaseClass` + + `provider.clusterReplicaLagMinimum` +
+ `aws.neptune.CPUUtilization.byDatabaseClass` + + `provider.cpuUtilization` +
+ `aws.neptune.EngineUptime.byDatabaseClass` + + `provider.engineUptime` +
+ `aws.neptune.FreeableMemory.byDatabaseClass` + + `provider.freeableMemory` +
+ `aws.neptune.GremlinRequestsPerSec.byDatabaseClass` + + `provider.gremlinRequestsPerSec` +
+ `aws.neptune.GremlinWebSocketOpenConnections.byDatabaseClass` + + `provider.gremlinWebSocketOpenConnections` +
+ `aws.neptune.LoaderRequestsPerSec.byDatabaseClass` + + `provider.loaderRequestsPerSec` +
+ `aws.neptune.MainRequestQueuePendingRequests.byDatabaseClass` + + `provider.mainRequestQueuePendingRequests` +
+ `aws.neptune.NetworkReceiveThroughput.byDatabaseClass` + + `provider.networkReceiveThroughput` +
+ `aws.neptune.NetworkThroughput.byDatabaseClass` + + `provider.networkThroughput` +
+ `aws.neptune.NetworkTransmitThroughput.byDatabaseClass` + + `provider.networkTransmitThroughput` +
+ `aws.neptune.NumTxCommitted.byDatabaseClass` + + `provider.numTxCommitted` +
+ `aws.neptune.NumTxOpened.byDatabaseClass` + + `provider.numTxOpened` +
+ `aws.neptune.NumTxRolledBack.byDatabaseClass` + + `provider.numTxRolledBack` +
+ `aws.neptune.SnapshotStorageUsed.byDatabaseClass` + + `provider.snapshotStorageUsed` +
+ `aws.neptune.SparqlRequestsPerSec.byDatabaseClass` + + `provider.sparqlRequestsPerSec` +
+ `aws.neptune.TotalBackupStorageBilled.byDatabaseClass` + + `provider.totalBackupStorageBilled` +
+ `aws.neptune.TotalClientErrorsPerSec.byDatabaseClass` + + `provider.totalClientErrorsPerSec` +
+ `aws.neptune.TotalRequestsPerSec.byDatabaseClass` + + `provider.totalRequestsPerSec` +
+ `aws.neptune.TotalServerErrorsPerSec.byDatabaseClass` + + `provider.totalServerErrorsPerSec` +
+ `aws.neptune.VolumeBytesUsed.byDatabaseClass` + + `provider.volumeBytesUsed` +
+ `aws.neptune.VolumeReadIOPs.byDatabaseClass` + + `provider.volumeReadIOPs` +
+ `aws.neptune.VolumeWriteIOPs.byDatabaseClass` + + `provider.volumeWriteIOPs` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.networkelb.ActiveFlowCount` + + `provider.activeFlowCount` +
+ `aws.networkelb.ActiveFlowCount_TLS` + + `provider.activeFlowCountTls` +
+ `aws.networkelb.ClientTLSNegotiationErrorCount` + + `provider.clientTlsNegotiationErrorCount` +
+ `aws.networkelb.ConsumedLCUs` + + `provider.consumedLcus` +
+ `aws.networkelb.NewFlowCount` + + `provider.newFlowCount` +
+ `aws.networkelb.NewFlowCount_TLS` + + `provider.newFlowCountTls` +
+ `aws.networkelb.ProcessedBytes` + + `provider.processedBytes` +
+ `aws.networkelb.ProcessedBytes_TLS` + + `provider.processedBytesTls` +
+ `aws.networkelb.TargetTLSNegotiationErrorCount` + + `provider.targetTlsNegotiationErrorCount` +
+ `aws.networkelb.TCP_Client_Reset_Count` + + `provider.tcpClientResetCount` +
+ `aws.networkelb.TCP_ELB_Reset_Count` + + `provider.tcpElbResetCount` +
+ `aws.networkelb.TCP_Target_Reset_Count` + + `provider.tcpTargetResetCount` +
+ `aws.networkelb.HealthyHostCount` + + `provider.healthyHostCount` +
+ `aws.networkelb.UnHealthyHostCount` + + `provider.unHealthyHostCount` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.qldb.CommandLatency` + + `provider.commandLatency` +
+ `aws.qldb.IndexedStorage` + + `provider.indexedStorage` +
+ `aws.qldb.JournalStorage` + + `provider.journalStorage` +
+ `aws.qldb.OccConflictExceptions` + + `provider.occConflictExceptions` +
+ `aws.qldb.ReadIOs` + + `provider.readIOs` +
+ `aws.qldb.Session4xxExceptions` + + `provider.session4xxExceptions` +
+ `aws.qldb.Session5xxExceptions` + + `provider.session5xxExceptions` +
+ `aws.qldb.SessionRateExceededExceptions` + + `provider.sessionRateExceededExceptions` +
+ `aws.qldb.WriteIOs` + + `provider.writeIOs` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.rds.VolumeBytesUsed.byDbCluster` + + `provider.volumeUsedBytes` +
+ `aws.rds.VolumeReadIOPs.byDbCluster` + + `provider.volumeReadIops` +
+ `aws.rds.VolumeWriteIOPs.byDbCluster` + + `provider.volumeWriteIops` +
+ `aws.rds.ActiveTransactions` + + `provider.activeTransactions` +
+ `aws.rds.allocatedStorageBytes` + + `provider.allocatedStorageBytes` +
+ `aws.rds.AuroraBinlogReplicaLag` + + `provider.auroraBinlogReplicaLag` +
+ `aws.rds.AuroraReplicaLag` + + `provider.auroraReplicaLag` +
+ `aws.rds.AuroraReplicaLagMaximum` + + `provider.auroraReplicaLagMaximum` +
+ `aws.rds.AuroraReplicaLagMinimum` + + `provider.auroraReplicaLagMinimum` +
+ `aws.rds.BacktrackWindowActual` + + `provider.backtrackWindowActual` +
+ `aws.rds.BacktrackWindowAlert` + + `provider.backtrackWindowAlert` +
+ `aws.rds.BinLogDiskUsage` + + `provider.binLogDiskUsageBytes` +
+ `aws.rds.BlockedTransactions` + + `provider.blockedTransactions` +
+ `aws.rds.BufferCacheHitRatio` + + `provider.bufferCacheHitRatio` +
+ `aws.rds.BurstBalance` + + `provider.burstBalance` +
+ `aws.rds.CommitLatency` + + `provider.commitLatency` +
+ `aws.rds.CommitThroughput` + + `provider.commitThroughput` +
+ `aws.rds.CPUCreditBalance` + + `provider.cpuCreditBalance` +
+ `aws.rds.CPUCreditUsage` + + `provider.cpuCreditUsage` +
+ `aws.rds.CPUUtilization` + + `provider.cpuUtilization` +
+ `aws.rds.cpuUtilization.guest` + + `provider.cpuUtilization.guest` +
+ `aws.rds.cpuUtilization.idle` + + `provider.cpuUtilization.idle` +
+ `aws.rds.cpuUtilization.irq` + + `provider.cpuUtilization.irq` +
+ `aws.rds.cpuUtilization.nice` + + `provider.cpuUtilization.nice` +
+ `aws.rds.cpuUtilization.steal` + + `provider.cpuUtilization.steal` +
+ `aws.rds.cpuUtilization.system` + + `provider.cpuUtilization.system` +
+ `aws.rds.cpuUtilization.total` + + `provider.cpuUtilization.total` +
+ `aws.rds.cpuUtilization.user` + + `provider.cpuUtilization.user` +
+ `aws.rds.cpuUtilization.wait` + + `provider.cpuUtilization.wait` +
+ `aws.rds.DatabaseConnections` + + `provider.databaseConnections` +
+ `aws.rds.DDLLatency` + + `provider.ddlLatency` +
+ `aws.rds.DDLThroughput` + + `provider.ddlThroughput` +
+ `aws.rds.Deadlocks` + + `provider.deadlocks` +
+ `aws.rds.DeleteLatency` + + `provider.deleteLatency` +
+ `aws.rds.DeleteThroughput` + + `provider.deleteThroughput` +
+ `aws.rds.diskIo.avgQueueLen` + + `provider.diskIo.avgQueueLen` +
+ `aws.rds.diskIo.avgReqSz` + + `provider.diskIo.avgReqSz` +
+ `aws.rds.diskIo.await` + + `provider.diskIo.await` +
+ `aws.rds.diskIo.readIosps` + + `provider.diskIo.readIosps` +
+ `aws.rds.diskIo.readKb` + + `provider.diskIo.readKb` +
+ `aws.rds.diskIo.readKbps` + + `provider.diskIo.readKbps` +
+ `aws.rds.diskIo.readLatency` + + `provider.diskIo.readLatency` +
+ `aws.rds.diskIo.rrqmPs` + + `provider.diskIo.rrqmPs` +
+ `aws.rds.diskIo.tps` + + `provider.diskIo.tps` +
+ `aws.rds.diskIo.util` + + `provider.diskIo.util` +
+ `aws.rds.diskIo.writeIosps` + + `provider.diskIo.writeIosps` +
+ `aws.rds.diskIo.writeKb` + + `provider.diskIo.writeKb` +
+ `aws.rds.diskIo.writeKbps` + + `provider.diskIo.writeKbps` +
+ `aws.rds.diskIo.writeLatency` + + `provider.diskIo.writeLatency` +
+ `aws.rds.diskIo.writeThroughput` + + `provider.diskIo.writeThroughput` +
+ `aws.rds.diskIo.wrqmPs` + + `provider.diskIo.wrqmPs` +
+ `aws.rds.DiskQueueDepth` + + `provider.diskQueueDepth` +
+ `aws.rds.disks.availKb` + + `provider.disks.availKb` +
+ `aws.rds.disks.availPc` + + `provider.disks.availPc` +
+ `aws.rds.disks.rdBytesPs` + + `provider.disks.rdBytesPS` +
+ `aws.rds.disks.rdCountPs` + + `provider.disks.rdCountPS` +
+ `aws.rds.disks.totalKb` + + `provider.disks.totalKb` +
+ `aws.rds.disks.usedKb` + + `provider.disks.usedKb` +
+ `aws.rds.disks.usedPc` + + `provider.disks.usedPc` +
+ `aws.rds.disks.wrBytesPs` + + `provider.disks.wrBytesPS` +
+ `aws.rds.disks.wrCountPs` + + `provider.disks.wrCountPS` +
+ `aws.rds.DMLLatency` + + `provider.dmlLatency` +
+ `aws.rds.DMLThroughput` + + `provider.dmlThroughput` +
+ `aws.rds.EngineUptime` + + `provider.engineUptime` +
+ `aws.rds.fileSys.maxFiles` + + `provider.fileSys.maxFiles` +
+ `aws.rds.fileSys.total` + + `provider.fileSys.total` +
+ `aws.rds.fileSys.used` + + `provider.fileSys.used` +
+ `aws.rds.fileSys.usedFiles` + + `provider.fileSys.usedFiles` +
+ `aws.rds.fileSys.usedFilesPercent` + + `provider.fileSys.usedFilesPercent` +
+ `aws.rds.fileSys.usedPercent` + + `provider.fileSys.usedPercent` +
+ `aws.rds.FreeableMemory` + + `provider.freeableMemoryBytes` +
+ `aws.rds.FreeLocalStorage` + + `provider.freeLocalStorageBytes` +
+ `aws.rds.FreeStorageSpace` + + `provider.freeStorageSpaceBytes` +
+ `aws.rds.InsertLatency` + + `provider.insertLatency` +
+ `aws.rds.InsertThroughput` + + `provider.insertThroughput` +
+ `aws.rds.loadAverageMinute.fifteen` + + `provider.loadAverageMinute.fifteen` +
+ `aws.rds.loadAverageMinute.five` + + `provider.loadAverageMinute.five` +
+ `aws.rds.loadAverageMinute.one` + + `provider.loadAverageMinute.one` +
+ `aws.rds.LoginFailures` + + `provider.loginFailures` +
+ `aws.rds.MaximumUsedTransactionIDs` + + `provider.maximumUsedTransactionIDs` +
+ `aws.rds.memory.active` + + `provider.memory.active` +
+ `aws.rds.memory.buffers` + + `provider.memory.buffers` +
+ `aws.rds.memory.cached` + + `provider.memory.cached` +
+ `aws.rds.memory.commitLimitKb` + + `provider.memory.commitLimitKb` +
+ `aws.rds.memory.commitPeakKb` + + `provider.memory.commitPeakKb` +
+ `aws.rds.memory.commitTotKb` + + `provider.memory.commitTotKb` +
+ `aws.rds.memory.dirty` + + `provider.memory.dirty` +
+ `aws.rds.memory.free` + + `provider.memory.free` +
+ `aws.rds.memory.hugePagesFree` + + `provider.memory.hugePagesFree` +
+ `aws.rds.memory.hugePagesRsvd` + + `provider.memory.hugePagesRsvd` +
+ `aws.rds.memory.hugePagesSize` + + `provider.memory.hugePagesSize` +
+ `aws.rds.memory.hugePagesSurp` + + `provider.memory.hugePagesSurp` +
+ `aws.rds.memory.hugePagesTotal` + + `provider.memory.hugePagesTotal` +
+ `aws.rds.memory.inactive` + + `provider.memory.inactive` +
+ `aws.rds.memory.kernNonpagedKb` + + `provider.memory.kernNonpagedKb` +
+ `aws.rds.memory.kernPagedKb` + + `provider.memory.kernPagedKb` +
+ `aws.rds.memory.kernTotKb` + + `provider.memory.kernTotKb` +
+ `aws.rds.memory.mapped` + + `provider.memory.mapped` +
+ `aws.rds.memory.pageSize` + + `provider.memory.pageSize` +
+ `aws.rds.memory.pageTables` + + `provider.memory.pageTables` +
+ `aws.rds.memory.physAvailKb` + + `provider.memory.physAvailKb` +
+ `aws.rds.memory.physTotKb` + + `provider.memory.physTotKb` +
+ `aws.rds.memory.slab` + + `provider.memory.slab` +
+ `aws.rds.memory.sqlServerTotKb` + + `provider.memory.sqlServerTotKb` +
+ `aws.rds.memory.sysCacheKb` + + `provider.memory.sysCacheKb` +
+ `aws.rds.memory.total` + + `provider.memory.total` +
+ `aws.rds.memory.writeback` + + `provider.memory.writeback` +
+ `aws.rds.network.rdBytesPs` + + `provider.network.rdBytesPS` +
+ `aws.rds.network.rx` + + `provider.network.rx` +
+ `aws.rds.network.tx` + + `provider.network.tx` +
+ `aws.rds.network.wrBytesPs` + + `provider.network.wrBytesPS` +
+ `aws.rds.NetworkReceiveThroughput` + + `provider.networkReceiveThroughput` +
+ `aws.rds.NetworkThroughput` + + `provider.networkThroughput` +
+ `aws.rds.NetworkTransmitThroughput` + + `provider.networkTransmitThroughput` +
+ `aws.rds.OldestReplicationSlotLag` + + `provider.oldestReplicationSlotLag` +
+ `aws.rds.process.cpuUsedPc` + + `provider.process.cpuUsedPc` +
+ `aws.rds.process.memoryUsedPc` + + `provider.process.memoryUsedPc` +
+ `aws.rds.process.memUsedPc` + + `provider.process.memUsedPc` +
+ `aws.rds.process.rss` + + `provider.process.rss` +
+ `aws.rds.process.virtKb` + + `provider.process.virtKb` +
+ `aws.rds.process.workingSetKb` + + `provider.process.workingSetKb` +
+ `aws.rds.process.workingSetPrivKb` + + `provider.process.workingSetPrivKb` +
+ `aws.rds.process.workingSetShareableKb` + + `provider.process.workingSetShareableKb` +
+ `aws.rds.Queries` + + `provider.queries` +
+ `aws.rds.RDSToAuroraPostgreSQLReplicaLag` + + `provider.rdsToAuroraPostgreSQLReplicaLag` +
+ `aws.rds.ReadIOPS` + + `provider.readIops` +
+ `aws.rds.ReadLatency` + + `provider.readLatency` +
+ `aws.rds.ReadThroughput` + + `provider.readThroughput` +
+ `aws.rds.ReplicaLag` + + `provider.replicaLag` +
+ `aws.rds.ReplicationSlotDiskUsage` + + `provider.replicationSlotDiskUsageBytes` +
+ `aws.rds.ResultSetCacheHitRatio` + + `provider.resultSetCacheHitRatio` +
+ `aws.rds.SelectLatency` + + `provider.selectLatency` +
+ `aws.rds.SelectThroughput` + + `provider.selectThroughput` +
+ `aws.rds.swap.cached` + + `provider.swap.cached` +
+ `aws.rds.swap.free` + + `provider.swap.free` +
+ `aws.rds.swap.total` + + `provider.swap.total` +
+ `aws.rds.SwapUsage` + + `provider.swapUsageBytes` +
+ `aws.rds.system.handles` + + `provider.system.handles` +
+ `aws.rds.system.processes` + + `provider.system.processes` +
+ `aws.rds.system.threads` + + `provider.system.threads` +
+ `aws.rds.tasks.blocked` + + `provider.tasks.blocked` +
+ `aws.rds.tasks.running` + + `provider.tasks.running` +
+ `aws.rds.tasks.sleeping` + + `provider.tasks.sleeping` +
+ `aws.rds.tasks.stopped` + + `provider.tasks.stopped` +
+ `aws.rds.tasks.total` + + `provider.tasks.total` +
+ `aws.rds.tasks.zombie` + + `provider.tasks.zombie` +
+ `aws.rds.TransactionLogsDiskUsage` + + `provider.transactionLogsDiskUsageBytes` +
+ `aws.rds.TransactionLogsGeneration` + + `provider.transactionLogsGeneration` +
+ `aws.rds.UpdateLatency` + + `provider.updateLatency` +
+ `aws.rds.UpdateThroughput` + + `provider.updateThroughput` +
+ `aws.rds.WriteIOPS` + + `provider.writeIops` +
+ `aws.rds.WriteLatency` + + `provider.writeLatency` +
+ `aws.rds.WriteThroughput` + + `provider.writeThroughput` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.redshift.CPUUtilization.byCluster` + + `provider.cpuUtilization` +
+ `aws.redshift.DatabaseConnections.byCluster` + + `provider.DatabaseConnections` +
+ `aws.redshift.HealthStatus.byCluster` + + `provider.HealthStatus` +
+ `aws.redshift.MaintenanceMode.byCluster` + + `provider.MaintenanceMode` +
+ `aws.redshift.NetworkReceiveThroughput.byCluster` + + `provider.NetworkReceiveThroughput` +
+ `aws.redshift.NetworkTransmitThroughput.byCluster` + + `provider.NetworkTransmitThroughput` +
+ `aws.redshift.PercentageDiskSpaceUsed.byCluster` + + `provider.PercentageDiskSpaceUsed` +
+ `aws.redshift.QueriesCompletedPerSecond` + + `provider.QueriesCompletedPerSecond` +
+ `aws.redshift.QueryDuration` + + `provider.QueryDuration` +
+ `aws.redshift.ReadIOPS.byCluster` + + `provider.readIops` +
+ `aws.redshift.ReadLatency.byCluster` + + `provider.ReadLatency` +
+ `aws.redshift.ReadThroughput.byCluster` + + `provider.ReadThroughput` +
+ `aws.redshift.WriteIOPS.byCluster` + + `provider.writeIops` +
+ `aws.redshift.WriteLatency.byCluster` + + `provider.WriteLatency` +
+ `aws.redshift.WriteThroughput.byCluster` + + `provider.WriteThroughput` +
+ `aws.redshift.CPUUtilization.byNode` + + `provider.cpuUtilization` +
+ `aws.redshift.DatabaseConnections.byNode` + + `provider.DatabaseConnections` +
+ `aws.redshift.HealthStatus.byNode` + + `provider.HealthStatus` +
+ `aws.redshift.MaintenanceMode.byNode` + + `provider.MaintenanceMode` +
+ `aws.redshift.NetworkReceiveThroughput.byNode` + + `provider.NetworkReceiveThroughput` +
+ `aws.redshift.NetworkTransmitThroughput.byNode` + + `provider.NetworkTransmitThroughput` +
+ `aws.redshift.PercentageDiskSpaceUsed.byNode` + + `provider.PercentageDiskSpaceUsed` +
+ `aws.redshift.ReadIOPS.byNode` + + `provider.readIops` +
+ `aws.redshift.ReadLatency.byNode` + + `provider.ReadLatency` +
+ `aws.redshift.ReadThroughput.byNode` + + `provider.ReadThroughput` +
+ `aws.redshift.WriteIOPS.byNode` + + `provider.writeIops` +
+ `aws.redshift.WriteLatency.byNode` + + `provider.WriteLatency` +
+ `aws.redshift.WriteThroughput.byNode` + + `provider.WriteThroughput` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.route53.ChildHealthCheckHealthyCount` + + `provider.childHealthCheckHealthyCount` +
+ `aws.route53.ConnectionTime` + + `provider.connectionTime` +
+ `aws.route53.HealthCheckPercentageHealthy` + + `provider.healthCheckPercentageHealthy` +
+ `aws.route53.HealthCheckStatus` + + `provider.healthCheckStatus` +
+ `aws.route53.SSLHandshakeTime` + + `provider.sSLHandshakeTime` +
+ `aws.route53.TimeToFirstByte` + + `provider.timeToFirstByte` +
+
+ + + + + + + + + + + + + + + + + + + + + + +
+ `aws.route53resolver.InboundQueryVolume` + + `provider.inboundQueryVolume` +
+ `aws.route53resolver.OutboundQueryAggregatedVolume` + + `provider.outboundQueryAggregatedVolume` +
+ `aws.route53resolver.OutboundQueryVolume` + + `provider.outboundQueryVolume` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.s3.BucketSizeBytes` + + `provider.bucketSizeBytes` +
+ `aws.s3.NumberOfObjects` + + `provider.numberOfObjects` +
+ `aws.s3.4xxErrors` + + `provider.error4xxErrors` +
+ `aws.s3.5xxErrors` + + `provider.error5xxErrors` +
+ `aws.s3.AllRequests` + + `provider.allRequests` +
+ `aws.s3.BytesDownloaded` + + `provider.bytesDownloaded` +
+ `aws.s3.BytesUploaded` + + `provider.bytesUploaded` +
+ `aws.s3.DeleteRequests` + + `provider.deleteRequests` +
+ `aws.s3.FirstByteLatency` + + `provider.firstByteLatency` +
+ `aws.s3.GetRequests` + + `provider.getRequests` +
+ `aws.s3.HeadRequests` + + `provider.headRequests` +
+ `aws.s3.ListRequests` + + `provider.listRequests` +
+ `aws.s3.PostRequests` + + `provider.postRequests` +
+ `aws.s3.PutRequests` + + `provider.putRequests` +
+ `aws.s3.TotalRequestLatency` + + `provider.totalRequestLatency` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.ses.Bounce` + + `provider.Bounce` +
+ `aws.ses.Click` + + `provider.Click` +
+ `aws.ses.Complaint` + + `provider.Complaint` +
+ `aws.ses.Delivery` + + `provider.Delivery` +
+ `aws.ses.Open` + + `provider.Open` +
+ `aws.ses.Send` + + `provider.Send` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.sns.NumberOfMessagesPublished` + + `provider.numberOfMessagesPublished` +
+ `aws.sns.NumberOfNotificationsDelivered` + + `provider.numberOfNotificationsDelivered` +
+ `aws.sns.NumberOfNotificationsFailed` + + `provider.numberOfNotificationsFailed` +
+ `aws.sns.PublishSize` + + `provider.publishSize` +
+ `aws.sns.SubscriptionsConfirmed` + + `provider.subscriptionsConfirmed` +
+ `aws.sns.SubscriptionsDeleted` + + `provider.subscriptionsDeleted` +
+ `aws.sns.SubscriptionsPending` + + `provider.subscriptionsPending` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.sqs.ApproximateAgeOfOldestMessage` + + `provider.approximateAgeOfOldestMessage` +
+ `aws.sqs.ApproximateNumberOfMessagesDelayed` + + `provider.approximateNumberOfMessagesDelayed` +
+ `aws.sqs.ApproximateNumberOfMessagesNotVisible` + + `provider.approximateNumberOfMessagesNotVisible` +
+ `aws.sqs.ApproximateNumberOfMessagesVisible` + + `provider.approximateNumberOfMessagesVisible` +
+ `aws.sqs.NumberOfEmptyReceives` + + `provider.numberOfEmptyReceives` +
+ `aws.sqs.NumberOfMessagesDeleted` + + `provider.numberOfMessagesDeleted` +
+ `aws.sqs.NumberOfMessagesReceived` + + `provider.numberOfMessagesReceived` +
+ `aws.sqs.NumberOfMessagesSent` + + `provider.numberOfMessagesSent` +
+ `aws.sqs.SentMessageSize` + + `provider.sentMessageSize` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.states.ExecutionsAborted` + + `provider.executionsAborted` +
+ `aws.states.ExecutionsFailed` + + `provider.executionsFailed` +
+ `aws.states.ExecutionsStarted` + + `provider.executionsStarted` +
+ `aws.states.ExecutionsSucceeded` + + `provider.executionsSucceeded` +
+ `aws.states.ExecutionsTimedOut` + + `provider.executionsTimedOut` +
+ `aws.states.ExecutionThrottled` + + `provider.executionThrottled` +
+ `aws.states.ExecutionTime` + + `provider.executionTime` +
+ `aws.states.ActivitiesFailed` + + `provider.activitiesFailed` +
+ `aws.states.ActivitiesHeartbeatTimedOut` + + `provider.activitiesHeartbeatTimedOut` +
+ `aws.states.ActivitiesScheduled` + + `provider.activitiesScheduled` +
+ `aws.states.ActivitiesStarted` + + `provider.activitiesStarted` +
+ `aws.states.ActivitiesSucceeded` + + `provider.activitiesSucceeded` +
+ `aws.states.ActivitiesTimedOut` + + `provider.activitiesTimedOut` +
+ `aws.states.ActivityRunTime` + + `provider.activityRunTime` +
+ `aws.states.ActivityScheduleTime` + + `provider.activityScheduleTime` +
+ `aws.states.ActivityTime` + + `provider.activityTime` +
+ `aws.states.LambdaFunctionRunTime` + + `provider.lambdaFunctionRunTime` +
+ `aws.states.LambdaFunctionScheduleTime` + + `provider.lambdaFunctionScheduleTime` +
+ `aws.states.LambdaFunctionsFailed` + + `provider.lambdaFunctionsFailed` +
+ `aws.states.LambdaFunctionsScheduled` + + `provider.lambdaFunctionsScheduled` +
+ `aws.states.LambdaFunctionsStarted` + + `provider.lambdaFunctionsStarted` +
+ `aws.states.LambdaFunctionsSucceeded` + + `provider.lambdaFunctionsSucceeded` +
+ `aws.states.LambdaFunctionsTimedOut` + + `provider.lambdaFunctionsTimedOut` +
+ `aws.states.LambdaFunctionTime` + + `provider.lambdaFunctionTime` +
+ `aws.states.ServiceIntegrationRunTime` + + `provider.serviceIntegrationRunTime` +
+ `aws.states.ServiceIntegrationScheduleTime` + + `provider.serviceIntegrationScheduleTime` +
+ `aws.states.ServiceIntegrationsFailed` + + `provider.serviceIntegrationsFailed` +
+ `aws.states.ServiceIntegrationsScheduled` + + `provider.serviceIntegrationsScheduled` +
+ `aws.states.ServiceIntegrationsStarted` + + `provider.serviceIntegrationsStarted` +
+ `aws.states.ServiceIntegrationsSucceeded` + + `provider.serviceIntegrationsSucceeded` +
+ `aws.states.ServiceIntegrationsTimedOut` + + `provider.serviceIntegrationsTimedOut` +
+ `aws.states.ServiceIntegrationTime` + + `provider.serviceIntegrationTime` +
+ `aws.states.ConsumedCapacity.byService` + + `provider.consumedCapacity` +
+ `aws.states.ProvisionedBucketSize.byService` + + `provider.provisionedBucketSize` +
+ `aws.states.ProvisionedRefillRate.byApiUsage` + + `provider.provisionedRefillRate` +
+ `aws.states.ThrottledEvents.byService` + + `provider.throttledEvents` +
+ `aws.states.ConsumedCapacity.byApiUsage` + + `provider.consumedCapacity` +
+ `aws.states.ProvisionedBucketSize.byApiUsage` + + `provider.provisionedBucketSize` +
+ `aws.states.ProvisionedRefillRate.byService` + + `provider.provisionedRefillRate` +
+ `aws.states.ThrottledEvents.byApiUsage` + + `provider.throttledEvents` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.transitgateway.BytesDropCountBlackhole` + + `provider.bytesDropCountBlackhole` +
+ `aws.transitgateway.BytesDropCountNoRoute` + + `provider.bytesDropCountNoRoute` +
+ `aws.transitgateway.BytesIn` + + `provider.bytesIn` +
+ `aws.transitgateway.BytesOut` + + `provider.bytesOut` +
+ `aws.transitgateway.PacketDropCountBlackhole` + + `provider.packetDropCountBlackhole` +
+ `aws.transitgateway.PacketDropCountNoRoute` + + `provider.packetDropCountNoRoute` +
+ `aws.transitgateway.PacketsIn` + + `provider.packetsIn` +
+ `aws.transitgateway.PacketsOut` + + `provider.packetsOut` +
+
+ + + + + + + + + + + + + + + + + + + + + + +
+ `aws.trustedadvisor.currentUsage` + + `currentUsage` +
+ `aws.trustedadvisor.limitAmount` + + `limitAmount` +
+ `aws.trustedadvisor.limitUsage` + + `serviceLimitUsage` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.natgateway.ActiveConnectionCount` + + `provider.activeConnectionCount` +
+ `aws.natgateway.BytesInFromDestination` + + `provider.bytesInFromDestination` +
+ `aws.natgateway.BytesInFromSource` + + `provider.bytesInFromSource` +
+ `aws.natgateway.BytesOutToDestination` + + `provider.bytesOutToDestination` +
+ `aws.natgateway.BytesOutToSource` + + `provider.bytesOutToSource` +
+ `aws.natgateway.ConnectionAttemptCount` + + `provider.connectionAttemptCount` +
+ `aws.natgateway.ConnectionEstablishedCount` + + `provider.connectionEstablishedCount` +
+ `aws.natgateway.ErrorPortAllocation` + + `provider.errorPortAllocation` +
+ `aws.natgateway.IdleTimeoutCount` + + `provider.idleTimeoutCount` +
+ `aws.natgateway.PacketsDropCount` + + `provider.packetsDropCount` +
+ `aws.natgateway.PacketsInFromDestination` + + `provider.packetsInFromDestination` +
+ `aws.natgateway.PacketsInFromSource` + + `provider.packetsInFromSource` +
+ `aws.natgateway.PacketsOutToDestination` + + `provider.packetsOutToDestination` +
+ `aws.natgateway.PacketsOutToSource` + + `provider.packetsOutToSource` +
+ `aws.vpc.bytes` + + `provider.bytes` +
+ `aws.vpc.packets` + + `provider.packets` +
+ `aws.vpn.TunnelDataIn` + + `provider.tunnelDataIn` +
+ `aws.vpn.TunnelDataOut` + + `provider.tunnelDataOut` +
+ `aws.vpn.TunnelState` + + `provider.tunnelState` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.waf.AllowedRequests.byWebACL` + + `provider.allowedRequests` +
+ `aws.waf.BlockedRequests.byWebACL` + + `provider.blockedRequests` +
+ `aws.waf.CountedRequests.byWebACL` + + `provider.countedRequests` +
+ `aws.waf.PassedRequests.byWebACL` + + `provider.passedRequests` +
+ `aws.waf.AllowedRequests.byRuleGroup` + + `provider.allowedRequests` +
+ `aws.waf.BlockedRequests.byRuleGroup` + + `provider.blockedRequests` +
+ `aws.waf.CountedRequests.byRuleGroup` + + `provider.countedRequests` +
+ `aws.waf.PassedRequests.byRuleGroup` + + `provider.passedRequests` +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ `aws.wafv2.AllowedRequests.byWebACL` + + `provider.allowedRequests` +
+ `aws.wafv2.BlockedRequests.byWebACL` + + `provider.blockedRequests` +
+ `aws.wafv2.CountedRequests.byWebACL` + + `provider.countedRequests` +
+ `aws.wafv2.PassedRequests.byWebACL` + + `provider.passedRequests` +
+ `aws.wafv2.AllowedRequests.byRuleGroup` + + `provider.allowedRequests` +
+ `aws.wafv2.BlockedRequests.byRuleGroup` + + `provider.blockedRequests` +
+ `aws.wafv2.CountedRequests.byRuleGroup` + + `provider.countedRequests` +
+ `aws.wafv2.PassedRequests.byRuleGroup` + + `provider.passedRequests` +
+
+
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/manage-aws-data/aws-multi-account.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/manage-aws-data/aws-multi-account.mdx new file mode 100644 index 00000000000..563c5746d7b --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/manage-aws-data/aws-multi-account.mdx @@ -0,0 +1,120 @@ +--- +title: Collecter des données à partir de plusieurs comptes AWS +type: troubleshooting +tags: + - Integrations + - Amazon integrations + - AWS multi-account + - CloudWatch cross-account observability +metaDescription: Learn how to observe multiple AWS accounts under a single account on the New Relic user interface. +freshnessValidatedDate: '2024-07-22T00:00:00.000Z' +translationType: machine +--- + +L'UI de New Relic vous offre une vue complète de votre système AWS, rendant monitoring beaucoup plus facile. Vous pouvez afficher les métriques et monitorer plusieurs comptes AWS qui envoient des métriques à un seul compte lié à New Relic. Pour que cette fonctionnalité fonctionne, vous devez envoyer des métriques provenant de différents comptes AWS que vous souhaitez monitorer vers un seul compte AWS. Vous pouvez ensuite monitorer ces différents comptes AWS avec les métriques enrichies du tag et des métadonnées appropriés. Vous pouvez facilement suivre [les](/docs/data-apis/understand-data/new-relic-data-types/) infrastructure [mesures de](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/) performances tout en réduisant les coûts globaux , ce qui signifie que vous économiserez du temps et de l'argent. + +Avoir une vue unique de tous vos comptes AWS vous aide à : + +* Réduisez le nombre de points de friction en configurant un compte d’observation unique pour AWS. + +* Réduisez les coûts globaux de l’infrastructure en réduisant le nombre de flux envoyant des métriques aux solutions d’observabilité. + +* Obtenez des métriques enrichies en balises et métadonnées à partir de vos comptes AWS. + +## Avant de commencer [#before-start] + +Vérifiez les éléments suivants : + +* Vous avez configuré [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) pour envoyer des métriques à un seul compte AWS qui doit être connecté à New Relic. + +* Vous utilisez [la référence d’API de balise AWS Resource Groups](https://docs.aws.amazon.com/resourcegroupstagging/latest/APIReference/overview.html) pour collecter la balise. + +* Vous utilisez la configuration AWS pour collecter des métadonnées. + +* Tous les rôles IAM ont accès à la récupération des balises à partir de comptes individuels. + +* Vous utilisez le [rôle IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles.html) utilisé dans le compte d’observation AWS sur tous les comptes AWS à monitorer. + +* [L'observabilité inter-comptes CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Unified-Cross-Account.html) est correctement configurée. Voir [Configuration de l'accès entre comptes](#setting-up-aws-cross-account-access). + +### Configurer l'accès entre comptes AWS [#setting-up-aws-cross-account-access] + +Vous devrez avoir accès à la console de gestion AWS des comptes monitoring et des comptes sources. + +* **Compte(s) AWS source**: il s’agit de comptes AWS individuels qui génèrent des données d’observabilité pour les ressources qui y résident. Les comptes sources partagent leurs données d'observabilité avec le compte monitoring . +* **Monitoring du compte AWS**: Il s'agit d'un compte AWS central qui permet de visualiser et d'interagir avec les données d'observabilité générées à partir des comptes sources. Il collecte la télémétrie de ces comptes et la transmet à New Relic. + + + + Accédez à la console de gestion AWS du compte monitoring et suivez ces étapes pour copier le **Monitoring accounts sink ARN**: + + 1. Allez à **CloudWatch > Settings**. + + 2. Cliquez sur **Manage monitoring account**. + + 3. Cliquez sur l’onglet **Configuration details** . + + 4. Copiez le **Monitoring accounts sink ARN**. + + + Chaque compte peut avoir un récepteur par région, donc si vous devez monitorer plusieurs régions, vous devez configurer un récepteur pour chaque région. + + + + + Accédez à la console de gestion AWS du compte source et [liez le compte de monitoring](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Unified-Cross-Account-Setup.html) pour les ressources **Metrics** : + + 1. Allez à **Cloudwatch > Settings**. + 2. Dans la section **Source account configuration** , cliquez sur **Configure**. + 3. Sélectionnez **Metrics**. + 4. (Facultatif) Cochez **Filter Metrics** et configurez un filtre. + 5. Collez l'ARN du sink précédemment copié dans le champ **Sink ARN** . + 6. Cliquez sur **Link** et confirmez. + + + + Revenez à la console de gestion AWS du compte monitoring : + + 1. Allez à **CloudWatch > Settings**. + 2. Cliquez sur **Manage monitoring account** et vérifiez que le compte source est répertorié. + 3. Accédez à **CloudWatch > Metrics > Streams** et vérifiez que le flux métrique envoyant la télémétrie a **Cross account status** activé. Sinon, modifiez-le, cochez la case **Metrics to be streamed > Include source account metrics** et enregistrez. + + + +## Connectez votre compte AWS Observer à New Relic [#connect-aws-account] + +Pour commencer à recevoir des données Amazon avec l'intégration AWS de New Relic, connectez votre compte AWS, qui reçoit les métriques de tous les autres comptes AWS que vous souhaitez monitorer, à New Relic. + +1. Aller à **[one.newrelic.com](https://one.newrelic.com/all-capabilities) > Infrastructure**. Sous la section **Integrations** , cliquez sur **AWS**. + +2. Cliquez sur **Add AWS account**. + + Add AWS account to New Relic + +3. Choisissez la méthode d'instrumentation **Manually integrate your AWS account** . + +4. Choisissez l'option **Real-time AWS monitoring (Recommended)** . + +5. Connectez-vous à la [console de gestion AWS](https://aws.amazon.com/console/) et suivez les étapes. + +6. Une fois toutes les étapes terminées, cliquez sur le lien **Explore data** pour consulter vos métriques. + + Explore your data link + +## Explorez vos données AWS [#explore-data] + +Pour explorer vos données AWS, accédez à **[one.newrelic.com](https://one.newrelic.com/all-capabilities) > Infrastructure**. Sous la section **Integrations** , cliquez sur **AWS**. Ensuite, sélectionnez votre intégration et cliquez sur le lien **Explore data** . Ce lien ouvre le [**Data explorer**](/docs/query-your-data/explore-query-data/browse-data/introduction-data-explorer/) pour parcourir les métriques, facettes et filtres disponibles par les dimensions associées. Vous disposez également d'un onglet pour ouvrir le [générateur de requêtes](/docs/telemetry-data-platform/get-data/apis/query-metric-data-type/). + +## Vérifiez le statut de votre compte [#account-status] + +Vous pouvez vérifier l'état de votre compte en cliquant sur le bouton **See account status dashboard** . + +See the status of your account + +
+ Aller à **[one.newrelic.com](https://one.newrelic.com/all-capabilities) > Infrastructure**. Sous la section **Integrations** , cliquez sur **AWS**. Cliquez ensuite sur le bouton **See account status dashboard** . +
+ +Une fois que vous avez cliqué sur le bouton, le dashboard s'ouvre. + +See the status of your account \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/manage-aws-data/polling-intervals-aws-integrations.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/manage-aws-data/polling-intervals-aws-integrations.mdx new file mode 100644 index 00000000000..aa4a7d48933 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/manage-aws-data/polling-intervals-aws-integrations.mdx @@ -0,0 +1,487 @@ +--- +title: Configurer l'intervalle d'interrogation +tags: + - Integrations + - Amazon integrations + - Get started +metaDescription: Understand polling intervals for each of your New Relic AWS integrations. +freshnessValidatedDate: never +translationType: machine +--- + +Les métriques reçues via l'intégration AWS flux de métriques CloudWatch sont ingérées dès qu'elles sont disponibles auprès d'AWS. Les métadonnées des ressources et les tags sont requêtes toutes les 15 minutes. + +API polling intégration requête services AWS selon un intervalle d'interrogation, qui varie en fonction [de l'intégration](#aws-integrations). Chaque intervalle d’interrogation par New Relic se produit pour chaque entité AWS. Par exemple, si vous disposez de treize équilibreurs de charge Elastic (ELB), chacun d'eux sera interrogé toutes les cinq minutes. + +## Gérer la fréquence des sondages [#manage-polling] + +Pour les flux métriques, l'intervalle d'interrogation ne peut pas être contrôlé. AWS Kinesis Data Firehose envoie des métriques toutes les 60 secondes ou lorsque 1 Mo de métriques est reçu (selon la première éventualité). + +Pour l'intégration de l'interrogation API, par défaut, l'intervalle de fréquence d'interrogation est défini au maximum. Vous pouvez [modifier la fréquence d'interrogation](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations#polling) dans les paramètres de configuration. + +Vous pouvez également monitorer l'intervalle d'interrogation en visualisant ces données dans New Relic : + +1. Allez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**. +2. Sélectionnez **Account status dashboard**. + +## Intervalles de données de sondage New Relic et CloudWatch [#aws-integrations] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Intégration AWS + + Intervalle d'interrogation de New Relic + + Intervalle de données Amazon CloudWatch +
+ [ALB](/docs/aws-alb-integration) + + 5 minutes + + 1 minute +
+ [Passerelle API](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-api-gateway-monitoring-integration) + + 5 minutes + + 1 minute +
+ [Mise à l'échelle automatique](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-auto-scaling-monitoring-integration) + + 5 minutes + + 1 minute +
+ [Facturation](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-billing-integration) + + 1 heure + + 4 heures +
+ [Front de nuage](/docs/aws-cloudfront-integration) + + 5 minutes + + 1 minute, avec jusqu'à 1 minute de retard car CloudFront signale parfois des données partielles +
+ [CloudTrail](/docs/integrations/amazon-integrations/aws-integrations-list/aws-cloudtrail-monitoring-integration) + + 5 minutes + + (CloudWatch ne monitore pas CloudTrail) +
+ [DynamoDB](/docs/aws-dynamodb-integration) + + 5 minutes + + 1 ou 5 minutes, selon les statistiques +
+ [EBS](/docs/aws-ebs-integration) + + 15 minutes + + 1 ou 5 minutes, selon le type de volume +
+ [EC2](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-ec2-integration) + + 5 minutes + + 1 ou 5 minutes, selon le forfait CloudWatch +
+ [ECS/ECR](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-ecsecr-integration) + + 5 minutes + + 1 minute +
+ [EFS](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-efs-monitoring-integration) + + 5 minutes + + 1 minute +
+ [Elastic Beanstalk](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-elastic-beanstalk-monitoring-integration) + + 5 minutes + + 1 minute +
+ [Cache élastique](/docs/aws-elasticcache-integration) + + 5 minutes + + 1 minute +
+ [Elasticsearch](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-elasticsearch-integration) + + 5 minutes + + 1 minute +
+ [ELB](/docs/aws-elb-integration) + + 5 minutes + + 1 minute +
+ [DME](/docs/integrations/amazon-integrations/aws-integrations-list/aws-iot-monitoring-integration) + + 5 minutes + + 5 minutes +
+ [Santé](/docs/integrations/amazon-integrations/aws-integrations-list/aws-health-monitoring-integration) + + 5 minutes + + (CloudWatch ne monitore pas la santé) +
+ [JE SUIS](/docs/aws-iam-integration) + + 5 minutes + + (CloudWatch ne monitore pas IAM) +
+ [IoT](/docs/integrations/amazon-integrations/aws-integrations-list/aws-iot-monitoring-integration) + + 5 minutes + + 1 minute +
+ [Lance à incendie Kinesis](/docs/integrations/amazon-integrations/aws-integrations-list/aws-kinesis-firehose-monitoring-integration) + + 5 minutes + + 1 minute +
+ [Flux Kinesis](/docs/integrations/amazon-integrations/aws-integrations-list/aws-kinesis-streams-monitoring-integration) + + 15 minutes + + 1 minute +
+ [Lambda](/docs/infrastructure/infrastructure-integrations/amazon-integrations/aws-lambda-integration) + + 5 minutes + + 1 minute +
+ [RDS](/docs/aws-rds-integration) + + 5 minutes + + 1 minute pour l'instance RDS + + 5 minutes pour le cluster RDS +
+ [Redshift](/docs/aws-redshift-integration) + + 5 minutes + + 1 minute +
+ [Route 53](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-route-53-integration) + + 5 minutes + + 1 minute +
+ [S3](/docs/aws-s3-integration) + + 1 heure pour les seaux + + 5 minutes pour requests + + 24 heures pour les seaux + + 1 minute pour requests +
+ [SES](/docs/aws-simple-email-service-ses-monitoring-integration) + + 5 minutes + + 1 minute +
+ [SNS](/docs/aws-sns-integration) + + 5 minutes + + 5 minutes +
+ [SQS](/docs/aws-sqs-integration) + + 5 minutes + + 5 minutes +
+ [VPC](/docs/aws-vpc-integration) + + 15 minutes + + (CloudWatch ne monitore pas le VPC) +
+ [X-Ray](/docs/integrations/amazon-integrations/aws-integrations-list/aws-x-ray-monitoring-integration) + + 5 minutes + + (CloudWatch ne monitore pas X-Ray) +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/authentication-issues.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/authentication-issues.mdx new file mode 100644 index 00000000000..bcb00132edf --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/authentication-issues.mdx @@ -0,0 +1,33 @@ +--- +title: Problèmes d'authentification +type: troubleshooting +tags: + - Integrations + - Amazon integrations + - Troubleshooting +metaDescription: 'You''ve set up your AWS integration, but cannot see any data due to authentication issues.' +freshnessValidatedDate: never +translationType: machine +--- + +## Problème + +Vous avez configuré votre intégration AWS et [l'avez connectée à New Relic](/docs/integrations/amazon-integrations/get-started/connect-aws-infrastructure), mais vous ne voyez aucune donnée dans le [dashboard AWS](/docs/integrations/amazon-integrations/get-started/introduction-aws-integrations#insights). + +## Solution + +Assurez-vous de [nous avoir accordé les bonnes autorisations](/docs/integrations/amazon-integrations/get-started/integrations-managed-policies) pour récupérer vos métriques. + +Pour le vérifier, accédez au **Account status dashboard** de votre intégration pour vérifier qu'aucune erreur n'est signalée : + +Screenshot showing the account status dashboard. + +Dans le dashboard Statut du compte, vérifiez le dashboard **Permission Errors** et voyez si vous avez des erreurs de méthode pour l'une de vos sources de données : + +Screenshot showing permissions errors in the account status dashboard. + +Si des erreurs sont signalées, assurez-vous que votre document de politique d'autorisations (s'il ne s'agit pas de la politique AWS `Read-Only Access` standard) contient les méthodes signalées dans le dashboard des erreurs conformément à notre documentation [sur les autorisations personnalisées](/docs/integrations/amazon-integrations/get-started/integrations-managed-policies) . + + + Certaines méthodes ne sont pas spécifiques à l’intégration et **[must be granted for all integrations](/docs/integrations/amazon-integrations/get-started/integrations-managed-policies#all-permissions)**. + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/aws-service-specific-api-rate-limiting.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/aws-service-specific-api-rate-limiting.mdx new file mode 100644 index 00000000000..2dd29a222f3 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/aws-service-specific-api-rate-limiting.mdx @@ -0,0 +1,54 @@ +--- +title: services AWS spécifiques API limitation du débit +type: troubleshooting +tags: + - Integrations + - Amazon integrations + - Troubleshooting +metaDescription: Troubleshooting procedures if you encountered a rate limit for service-specific APIs with your New Relic infrastructure integration for AWS. +freshnessValidatedDate: never +translationType: machine +--- + +## Problème + +Après avoir activé l'intégration d'Amazon avec de New Relic,monitoring infrastructurevous rencontrez une limite de débit pour les API spécifiques au service. Vous pouvez voir ce message dans votre logiciel monitoring AWS, souvent avec une erreur `503` : + +`AWS::EC2::Errors::RequestLimitExceeded Request limit exceeded.` + +## Solution + + + + Assurez-vous que vous ne collectez pas d’informations d’inventaire pour le mauvais compte ARN. Vérifiez que l'ARN associé à votre compte New Relic est correct. + + + + La [fréquence d'interrogation](/docs/integrations/amazon-integrations/get-started/polling-intervals-aws-integrations) détermine la fréquence à laquelle New Relic collecte des données auprès de votre fournisseur de cloud. Par défaut, la fréquence d'interrogation est définie sur la fréquence maximale disponible pour chaque service. Si vous atteignez votre limite de débit API, vous souhaiterez peut-être [diminuer la fréquence d'interrogation.](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations#polling) + + + + Vous pouvez définir des filtres pour chaque intégration afin de spécifier les informations que vous souhaitez capturer. Si vous atteignez votre limite de débit API, vous souhaiterez peut-être [filtrer vos données](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations#filter-data). + + + + Pour examiner l’utilisation de l’API pour notre intégration AWS : + + 1. Allez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS > Account status dashboard**. + + 2. Consultez le dashboard. + + Le dashboard comprend un graphique avec le nombre d'appels d'API AWS de votre compte pour le mois dernier ainsi que l'appel d'API CloudWatch (par ressource AWS) pour le dernier jour. Ces informations concernent l'utilisation de l'API pour New Relic uniquement. Cela n’inclut pas les autres utilisations de l’API AWS ou de CloudWatch qui peuvent se produire. + + + +Pour obtenir de l'aide afin de déterminer quels services peuvent entraîner une augmentation de la facturation, obtenez de l'aide sur [support.newrelic.com](https://support.newrelic.com/), ou contactez votre représentant de compte New Relic. + +## Cause + +L'intégration d'infrastructure Amazon exploite les API monitoring AWS pour collecter des données d'inventaire. AWS impose des limites de débit strictes sur de nombreuses API spécifiques à AWS consommées par l'intégration New Relic. L'ajout de l'intégration New Relic d'Amazon augmentera l'utilisation des API spécifiques au service et pourrait avoir un impact sur la rapidité avec laquelle vous atteignez votre limite de débit. + +Cela peut être dû à l’une des raisons suivantes : + +* Activation de l'intégration d'Amazon sur plusieurs plugins pour le même service +* Ajout d'un [ARN de rôle](http://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html) incorrect à votre intégration AWS \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/cannot-create-alert-condition-infrastructure-integration.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/cannot-create-alert-condition-infrastructure-integration.mdx new file mode 100644 index 00000000000..ce7140b0e39 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/cannot-create-alert-condition-infrastructure-integration.mdx @@ -0,0 +1,42 @@ +--- +title: Impossible de créer une condition d'alerte pour l'intégration infrastructure +type: troubleshooting +tags: + - Integrations + - Amazon integrations + - Troubleshooting +metaDescription: Troubleshooting suggestions if you cannot create an alert condition for your New Relic infrastructure integration. +freshnessValidatedDate: never +translationType: machine +--- + +## Problème + +Vous ne pouvez pas créer une [infrastructure condition d'alerte](/docs/infrastructure/new-relic-infrastructure/infrastructure-alert-conditions/infrastructure-alerts-add-edit-or-view-host-alert-information) car la métrique sur laquelle vous souhaitez générer une alerte n'apparaît pas dans la **Define thresholds** section de l'UI infrastructure page d'alertes de notre . + +## Solution + +Au lieu d'utiliser l'UI infrastructure de New Relic, utilisez [les appels de REST API d'infrastructure](/docs/infrastructure/new-relic-infrastructure/infrastructure-alert-conditions/rest-api-calls-new-relic-infrastructure-alerts) pour créer la condition d'alerte. + +1. Passez en revue la [syntaxe de la requête pour créer (POST)](/docs/infrastructure/new-relic-infrastructure/infrastructure-alert-conditions/rest-api-calls-new-relic-infrastructure-alerts#post-conditions) une condition d’infrastructure. + +2. Consultez les [exigences de l'API pour les conditions métriques](/docs/infrastructure/new-relic-infrastructure/infrastructure-alert-conditions/rest-api-calls-new-relic-infrastructure-alerts#metric-api). + +3. Lorsque vous créez la condition : pour le champ `select_value` , créez le nom de la métrique en utilisant la syntaxe suivante, où `provider` est une chaîne de préfixe standard : + + ``` + provider.metric.aggregation_type + ``` + + * `metric`:Utilisez le nom de la métrique tel que décrit dans la documentation New Relic pour votre intégration. + * `aggregation_type` Utilisez `Sum`, `Average`, `Minimum` ou `Maximum`. Reportez-vous à la documentation d'origine du fournisseur cloud de l'intégration pour voir quelles agrégations de statistiques sont disponibles pour chaque métrique. + +4. Pour le champ `policy_id` , utilisez l'ID unique de la règle d'alerte associée à la condition. Recherchez l'ID de la politique dans l'URL de la politique : + + ``` + https://alerts.newrelic.com/accounts/ACCOUNT_ID/policies/ALERT_POLICY_ID + ``` + +## Cause + +Cela se produit parce que la **Define thresholds** liste déroulante dans notre UI infrastructure affiche uniquement les métriques que New Relic a pu collecter au cours de la dernière heure. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/cloudwatch-billing-increase.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/cloudwatch-billing-increase.mdx new file mode 100644 index 00000000000..e649c4d58e6 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/cloudwatch-billing-increase.mdx @@ -0,0 +1,52 @@ +--- +title: Augmentation de la facturation de CloudWatch +type: troubleshooting +tags: + - Integrations + - Amazon integrations + - Troubleshooting +metaDescription: Troubleshooting procedures if you see increased CloudWatch billing with your infrastructure integration for AWS. +freshnessValidatedDate: never +translationType: machine +--- + +## Problème + +Après avoir configuré l'intégration Amazon de New Relic, votre utilisation de l'API [CloudWatch](https://aws.amazon.com/cloudwatch/) a augmenté et a par la suite eu un impact sur votre [facture d'utilisationCloudWatch ](https://aws.amazon.com/cloudwatch/pricing/). + +## Solution + + + + Assurez-vous que vous ne collectez pas d’informations d’inventaire pour le mauvais compte ARN. Vérifiez que l'ARN associé à votre compte New Relic est correct. + + + + La [fréquence d'interrogation](/docs/integrations/amazon-integrations/get-started/polling-intervals-aws-integrations) détermine la fréquence à laquelle New Relic collecte des données auprès de votre fournisseur de cloud. Par défaut, la fréquence d'interrogation est définie sur la fréquence maximale disponible pour chaque service. Si vous devez gérer votre facture Amazon CloudWatch, vous souhaiterez peut-être [diminuer la fréquence d'interrogation.](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations#polling) + + + + Vous pouvez définir des filtres pour chaque intégration afin de spécifier les informations que vous souhaitez capturer. Si vous devez gérer votre facture Amazon CloudWatch, vous souhaiterez peut-être [filtrer vos données](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations#filter-data). + + + + Pour examiner l’utilisation de l’API pour l’intégration infrastructure avec AWS : + + 1. Allez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS > Account status dashboard**. + + 2. Consultez le dashboard. + + Le dashboard comprend un graphique avec le nombre d'appels d'API de votre compte pour le mois dernier ainsi que l'appel d'API CloudWatch (par ressource AWS) pour le dernier jour. Ces informations concernent l'utilisation de l'API pour New Relic uniquement. Cela n'inclut pas les autres utilisations de l'API AWS ou de CloudWatch qui peuvent se produire. + + + +Pour obtenir de l'aide afin de déterminer quels services peuvent entraîner une augmentation de la facturation, contactez votre représentant de compte New Relic ou obtenez de l'aide sur [support.newrelic.com](https://support.newrelic.com/). + +## Cause + +Notre intégration Amazon exploite CloudWatch pour collecter des métriques. AWS facture les clients communs pour requests dépassant le premier [million par mois](http://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/cloudwatch_limits.html). + +Les problèmes de facturation de CloudWatch peuvent être causés par l'une des raisons suivantes : + +* Activation de l'intégration d'Amazon sur plusieurs plugins pour le même service +* Ajout d'un [ARN de rôle](http://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html) incorrect à votre intégration AWS \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/invalid-principal-error-unsupported-aws-regions.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/invalid-principal-error-unsupported-aws-regions.mdx new file mode 100644 index 00000000000..b629a033850 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/invalid-principal-error-unsupported-aws-regions.mdx @@ -0,0 +1,21 @@ +--- +title: "Erreur «\_Principal non valide\_» pour les régions AWS non prises en charge" +type: troubleshooting +tags: + - Integrations + - Amazon integrations + - Troubleshooting +metaDescription: 'New Relic AWS integrations: What to do if you see the "Invalid principal in policy" error message in the AWS portal.' +freshnessValidatedDate: never +translationType: machine +--- + +## Problème + +Lors de la connexion [d'AWS à une intégration d'infrastructure](/docs/integrations/amazon-integrations/get-started/connect-aws-services-infrastructure#connect), pendant la phase **Review** , vous recevez l'erreur AWS `Invalid principal in policy`. + +## Solution + +Vérifiez le type d’intégration que vous souhaitez installer. New Relic peut obtenir des données monitoring à partir de services et de points de terminaison situés dans toutes [les régions AWS,](https://docs.aws.amazon.com/general/latest/gr/rande.html) à l'exception des régions chinoises. + +Vous verrez cette erreur lorsque vous essayez de configurer l’intégration à partir d’un compte qui utilise la Chine. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/metric-data-delays-amazon-aws-integrations.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/metric-data-delays-amazon-aws-integrations.mdx new file mode 100644 index 00000000000..5ee53975ba9 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/metric-data-delays-amazon-aws-integrations.mdx @@ -0,0 +1,101 @@ +--- +title: retards de données métriques dans l'intégration AWS +type: troubleshooting +tags: + - Integrations + - Amazon integrations + - Troubleshooting +metaDescription: Troubleshooting tips for delays between the time your AWS integration makes an API request and New Relic infrastructure monitoring returns the metric data. +freshnessValidatedDate: never +translationType: machine +--- + +## Problème + +Vous remarquez des délais entre le moment où votre intégration AWS effectue une demande d'API et le moment où infrastructure renvoie les données métriques. + +## Solution + +Selon l'intégration AWS, l'agent infrastructure peut subir des retards explicites ou implicites dans le délai entre la demande d'API et les données métriques renvoyées. Pour en savoir plus sur cette cause, voir [Cause](#cause). + +Normalement, les retards ne s’additionnent pas. Avec un délai explicite, New Relic s'attend à ce que les données métriques soient au point de délai dans le temps. Par exemple, si New Relic utilise un délai explicite de cinq minutes, à 9h00, le point de données le plus récent devrait être celui de 8h55. + +Toutefois, les délais peuvent varier selon les clients et les comptes. Si vous rencontrez des retards inhabituels dans vos données métriques : + +1. Vérifiez si l’intégration de votre infrastructure présente [des retards explicites](#explicit) ou [des retards implicites](#implicit) avec requests API pour les données métriques. +2. Utilisateur CloudWatch : prenez une capture d'écran des données métriques dans votre console CloudWatch et joignez-la lorsque vous demandez de l'aide sur [support.newrelic.com](https://support.newrelic.com/). + +À l'aide de la capture d'écran de votre console CloudWatch , le support New Relic dépannera si le retard se produit dans infrastructure ou directement dans AWS. + +## Cause + +Selon l'intégration AWS, l'agent infrastructure peut subir des retards explicites ou implicites dans le délai entre la demande d'API et les données métriques renvoyées. + + + + + + + + + + + + + + + + + + + + + + + +
+ + **Metric data delays** + + + + **Comments** + +
+ Des retards explicites + + (défini spécifiquement) + + Les délais explicites sont ceux que New Relic définit dans le code pour obtenir des données plus fiables. Dans certains cas, la demande d'API à AWS peut renvoyer une valeur, mais une demande pour la même métrique une minute plus tard renvoie une valeur différente. Pour réduire la possibilité que cela se produise, New Relic définit des délais explicites. Par exemple: + + * Si New Relic utilise un délai explicite de cinq minutes, un appel d'API à 9h00 requests des métriques de 8h50 à 8h55. + + * Si New Relic n'utilise pas un délai explicite de cinq minutes, un appel d'API à 9h00 requests des métriques de 8h55 à 9h00. + + Des retards explicites peuvent provenir de ces intégrations Amazon : + + * [ALB](/docs/aws-alb-integration): 5 minutes + + * [ELB](/docs/aws-elb-integration): 5 minutes + + * [CloudFront](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-cloudfront-monitoring-integration): 3 minutes + + * [RDS](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-rds-monitoring-integration): 5 minutes + + * [SNS](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-sns-monitoring-integration): 10 minutes +
+ Retards implicites + + (attendu mais pas spécifiquement défini) + + Les retards implicites sont des modèles que New Relic a rencontrés lors de l'intégration. Elles ne sont pas toujours présentes et ne sont pas exactes. + + En général, les retards implicites ont tendance à provenir requests de mesures AWS CloudWatch, y compris ces intégrations Amazon : + + * [DynamoDB](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-dynamodb-monitoring-integration): environ 1 minute + * [EBS](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-ebs-monitoring-integration): Environ 15 minutes + * [EC2](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-ec2-monitoring-integration): Environ 5 minutes + * [ElastiCache](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-elasticache-monitoring-integration): Environ 5 minutes + * [Lambda](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-lambda-monitoring-integration): Environ 1 minute + * [SQS](/docs/infrastructure/amazon-integrations/amazon-integrations/aws-sqs-monitoring-integration): Environ 5 minutes +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/no-data-appears-aws-integrations.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/no-data-appears-aws-integrations.mdx new file mode 100644 index 00000000000..48f7c3e35ee --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/no-data-appears-aws-integrations.mdx @@ -0,0 +1,85 @@ +--- +title: 'Aucune donnée n''apparaît : sondage d''intégration API AWS' +type: troubleshooting +tags: + - Integrations + - Amazon integrations + - Troubleshooting +metaDescription: Troubleshooting suggestions if you do not see data for your Amazon/AWS integrations in the New Relic infrastructure UI. +freshnessValidatedDate: never +translationType: machine +--- + +## Problème + +Vous avez installé l'agent d'infrastructure, puis connecté votre compte Amazon à celui-ci. Après avoir attendu quelques minutes, vous ne voyez toujours pas les données de votre intégration AWS dans l'UI de monitoring d'infrastructure ou lors de l'interrogation des données. + +## Solution + +Si vous ne voyez pas de données après avoir attendu au moins 10 minutes, essayez ces suggestions de dépannage : + +1. Assurez-vous que l'agent d'infrastructure est [installé et fonctionne correctement](/docs/infrastructure/new-relic-infrastructure/troubleshooting/no-data-appears-infrastructure). Vous devez installer l’agent d’infrastructure **first**, puis vous connecter à votre compte AWS. + + + Si vous voyez des noms d'attribut, mais aucune donnée, à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > Events** ou **Infrastructure > Settings > Agents**, vous n'avez peut-être pas installé l'agent d'infrastructure. + + +2. Corrigez toutes les erreurs que vous voyez dans le dashboard d’état du compte. Accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS** et sélectionnez le **Account status dashboard** pour chacun de vos comptes. + + Si vous voyez un rapport **Role errors** ou **Permission errors** , reportez-vous à notre [intégration et à nos politiques gérées](/docs/integrations/amazon-integrations/getting-started/integrations-managed-policies) et vérifiez que vous avez accordé à New Relic les autorisations requises pour lire les données pertinentes de votre compte. + + Si vous voyez d'autres erreurs signalées, accédez à la [console AWS IAM](https://console.aws.amazon.com/iam/home?#/roles) et assurez-vous que les paramètres de votre ARN AWS correspondent aux éléments suivants : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Valeur +
+ + **Account ID** + + + `754728514883` +
+ + **External ID** + + + votre [identifiant de compte](/docs/accounts-partnerships/accounts/account-setup/account-id)New Relic +
+ + **Policy** + + + `ReadOnlyAccess` +
+ +3. Assurez-vous que vous [recherchez vos données au bon endroit](/docs/infrastructure/integrations-getting-started/getting-started/understand-integration-data-data-types#metric) . Vous pouvez retrouver toutes les données d'intégration dans [métriques et événement](/docs/query-your-data/explore-query-data/data-explorer/introduction-data-explorer). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/no-data-metric-streams.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/no-data-metric-streams.mdx new file mode 100644 index 00000000000..d15b1aabee1 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/no-data-metric-streams.mdx @@ -0,0 +1,106 @@ +--- +title: "Aucune donnée n'apparaît\_: AWS flux de métriques CloudWatch" +type: troubleshooting +tags: + - Integrations + - Amazon integrations + - Troubleshooting + - CloudWatch Metric Streams +metaDescription: Troubleshooting suggestions if you do not see data for your AWS CloudWatch Metric Streams integration in the New Relic infrastructure UI. +freshnessValidatedDate: never +translationType: machine +--- + +## Problème + +Vous avez suivi les étapes pour lier votre compte AWS, configuré le flux de métriques AWS CloudWatch et AWS Kinesis Data Firehose, et vous ne voyez toujours pas les métriques attendues dans New Relic. + +## Solutions [#solutions] + +### Aucune métrique ni erreur n'apparaît sur New Relic [#no-metrics-appear] + +Si vous ne voyez pas de données dans New Relic une fois que le flux de métriques AWS CloudWatch a été connecté à AWS Kinesis Data Firehose, suivez les étapes ci-dessous pour résoudre votre configuration: + +1. Vérifiez que le flux métrique est dans un état de `Running` via la console AWS ou l'API. Veuillez consulter [la documentation de dépannage AWS](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-metric-streams-troubleshoot.html) pour plus de détails. + +2. Vérifiez les métriques Stream métriques sous `AWS/CloudWatch/MetricStreams` espace de nommage. Vous verrez un nombre de mises à jour métriques et d'erreurs par flux métrique. Cela indique que le flux métrique émet avec succès des données. + +3. Si vous voyez des erreurs, confirmez que le rôle IAM spécifié dans la configuration de métrique Streams accorde au principal du service CloudWatch les autorisations d'écriture et de ciblage de la ressource Firehose prévue. + +4. Vérifiez l’onglet de monitoring de Kinesis Data Firehose dans la console Kinesis pour voir si Firehose reçoit correctement les données. + +5. Vous pouvez activer le logging des erreurs CloudWatch sur votre Kinesis Data Firehose pour obtenir des informations plus détaillées pour le débogage des problèmes. Consultez la documentation officielle d'Amazon Kinesis Data Firehose pour plus de détails. + +6. Confirmez que vous avez configuré votre Kinesis Data Firehose avec les détails de destination corrects : + + * Assurez-vous que contient votre clé de licence de 40 caractères hexadécimaux. + * Assurez-vous que le bon data center américain ou européen a été sélectionné pour votre compte New Relic. Astuce : si le `license_key` commence par « eu », vous devez sélectionner le data center de l’UE. + +7. Vérifiez que votre Kinesis Data Firehose dispose des autorisations nécessaires pour écrire vers la destination configurée. Par exemple, la politique de compartiment S3 autorise l’écriture. + +8. Consultez la documentation officielle d'AWS Firehose sur l'utilisation et la mise en œuvre du dépannage : + + * [https://docs.aws.amazon.com/firehose/latest/dev/http\_troubleshooting.html](https://docs.aws.amazon.com/firehose/latest/dev/http_troubleshooting.html) + * [https://docs.aws.amazon.com/firehose/latest/dev/httpdeliveryrequestresponse.html](https://docs.aws.amazon.com/firehose/latest/dev/httpdeliveryrequestresponse.html) + * [https://docs.aws.amazon.com/firehose/latest/dev/retry.html](https://docs.aws.amazon.com/firehose/latest/dev/retry.html) + +9. Si vous rencontrez toujours des problèmes, veuillez contacter le support AWS pour obtenir de l'aide en rédigeant un [dossier d'assistance](https://docs.aws.amazon.com/awssupport/latest/user/case-management.html). Incluez les informations du flux AWS Firehose ainsi que [le point de terminaison cible](/docs/infrastructure/amazon-integrations/connect/cloudwatch-metric-streams/aws-metric-stream-setup#manual-setup), la plage horaire d'émission et tout message d'erreur que vous avez reçu. + +### Métriques manquantes pour certains espaces de nommage AWS [#missing-metrics] + +New Relic n'applique aucun filtre sur les métriques reçues du flux de métriques AWS CloudWatch. + +Si vous vous attendez à ce que certaines mesures soient ingérées et qu'elles ne le sont pas, vérifiez les points suivants : + +* Assurez-vous qu'il n'y a pas de filtre `Inclusion` ou `Exclusion` dans votre flux de métriques CloudWatch. +* Assurez-vous que les métriques sont disponibles dans AWS CloudWatch et peuvent être interrogées dans l'interface AWS CloudWatch . Pour certains services AWS spécifiques, tels que [les conteneurs d'informations détaillées ECS/EKS](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/deploy-container-insights.html), monitoring améliorée doit être explicitement activée côté AWS avant d'accéder aux métriques. + + + AWS CloudWatch n'inclut pas les métriques qui ne sont pas disponibles en moins de 2 heures. Par exemple, [certaines métriques S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/metrics-dimensions.html#s3-cloudwatch-metrics) sont agrégées sur une base quotidienne. Nous prévoyons de rendre certaines de ces mesures spéciales disponibles dans New Relic. + + +### écarts de valeurs métriques entre AWS CloudWatch et New Relic [#metric-discrepancies] + +Les métriques sont traitées, mappées et stockées telles qu'elles sont reçues d'AWS flux de métriques CloudWatch. Certaines divergences peuvent être observées lors de la comparaison des dashboards AWS CloudWatch et New Relic. Dans des scénarios limités, AWS CloudWatch applique des fonctions et une logique spécifiques avant de restituer les métriques. + +Ces lignes directrices devraient aider à comprendre la cause profonde de l’écart : + +* Vérifiez que la même fonction est utilisée sur les métriques (par exemple `average`, `min`, `max`). +* Du côté de New Relic, assurez-vous de filtrer le même horodatage ou la même période (en tenant compte du fuseau horaire) pour afficher exactement la même heure que dans AWS CloudWatch. +* Lors de l'utilisation de séries chronologiques, l'interface utilisateur de New Relic peut effectuer certains arrondis en fonction des intervalles. + +Vous pouvez obtenir une liste des métriques brutes reçues par time en utilisant une requête comme celle-ci (notez qu'aucune fonction n'est appliquée à la métrique sélectionnée) : + +``` +FROM Metric +SELECT aws.outposts.InstanceTypeCapacityUtilization +WHERE collector.name = 'cloudwatch-metric-streams' +``` + +N'oubliez pas qu'AWS fixe la résolution maximale (1 minute, 5 minutes, etc.) pour chaque métrique signalée dans AWS CloudWatch. + +### flux de métriques AWS Operation [#metric-stream-operation] + +Vous pouvez voir l'état du ou des flux métriques dans l'onglet Flux de la console CloudWatch . En particulier, un flux métrique peut être dans l’un des deux états : `running` ou `stopped`. + +* En cours d'exécution : le flux fonctionne correctement. Même s'il est en cours d'exécution, il se peut qu'aucune donnée métrique ne soit diffusée en raison des filtres configurés. +* Arrêté : le flux a été explicitement défini sur l’état arrêté (pas à cause d’une erreur). Cet état est utile pour arrêter temporairement le streaming de données sans supprimer la configuration. + +### Erreurs dans le dashboard d'état [#errors-status-dashboard] + +New Relic s'appuie sur le service AWS Config pour collecter des métadonnées supplémentaires auprès des ressources afin d'enrichir les métriques reçues via le flux de métriques CloudWatch. + +Assurez-vous qu'AWS Config est activé dans votre compte AWS et assurez-vous que le rôle lié dispose de l'autorisation ou de la politique en ligne suivante créée : + +``` +{ + "Version": "2012-10-17", + "Statement": [ + { + "Effect": "Allow", + "Action": "config:BatchGetResourceConfig", + "Resource": "*" + } + ] +} +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/partial-or-missing-logs-rds-vpc-aws-lambda.mdx b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/partial-or-missing-logs-rds-vpc-aws-lambda.mdx new file mode 100644 index 00000000000..fe9b4954bec --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/amazon-integrations/troubleshooting/partial-or-missing-logs-rds-vpc-aws-lambda.mdx @@ -0,0 +1,28 @@ +--- +title: 'log partiel ou manquant pour RDS, VPC, AWS Lambda' +type: troubleshooting +tags: + - Integrations + - Amazon integrations + - Troubleshooting +metaDescription: 'New Relic AWS integrations: What to do if the NewRelic-log-ingestion lambda function for pushing logs is not working or only sends partial data.' +freshnessValidatedDate: never +translationType: machine +--- + +## Problème + +Vous utilisez `NewRelic-log-ingestion`, la fonction Lambda pour envoyer le log d'AWS vers notre monitoring amélioré RDS, l'intégration du log VPC Flow ou les premières versions (alpha et bêta) de monitoring pour AWS Lambda. Cela ne fonctionne pas ou envoie des données partielles. + +## Solution + +Les versions lambda `NewRelic-log-ingestion` antérieures à 2.1 sont obsolètes. Mise à jour vers les derniers lambdas publiés dans le référentiel AWS Serverless. Vous pouvez soit utiliser la [CLI New Relic](https://developer.newrelic.com/build-tools/new-relic-one-applications/cli) , soit effectuer la mise à jour manuellement. + +Recommandé : le principal moyen de mettre à jour la fonction d’ingestion log Lambda est de suivre [les procédures standard](/docs/serverless-function-monitoring/aws-lambda-monitoring/get-started/update-lambda-monitoring) pour mettre à jour la fonction à l’aide de la CLI New Relic. + +Vous pouvez également mettre à jour la fonction manuellement : + +1. Évitez les faux positifs dans les alertes : suivez [les procéduresUI ](/docs/alerts/new-relic-alerts/configuring-alert-policies/update-or-disable-policies-conditions#condition-on-off)ou [les procédures de l'API](/alerts/rest-api-alerts/new-relic-alerts-rest-api/disable-enable-alerts-conditions-using-api) pour désactiver toutes les conditions d'alerte associées à l'intégration monitoring avec AWS Lambda, le monitoring amélioré RDS et le log de flux VPC. +2. Supprimez la version lambda obsolète de lambda : accédez à votre console AWS Lambda et supprimez `newrelic-log-ingestion`. Sachez que cela arrête le monitoring amélioré RDS et l’intégration du log VPC Flow jusqu’à ce que l’étape suivante soit terminée. +3. Réactiver le service : suivez les instructions de [le monitoring amélioré RDS](/docs/integrations/amazon-integrations/aws-integrations-list/aws-rds-enhanced-monitoring-integration#activate) ou [du log de flux VPC](/docs/integrations/amazon-integrations/aws-integrations-list/aws-vpc-flow-logs-monitoring-integration#enable), ou suivez l'étape pour [configurer le log CloudWatch pour qu'il soit diffusé vers New Relic Lambda](/docs/serverless-function-monitoring/aws-lambda-monitoring/get-started/enable-new-relic-monitoring-aws-lambda#stream-logs). +4. Vérifiez que vos données circulent via le nouveau lambda. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/choose-infra-install-method.mdx b/src/i18n/content/fr/docs/infrastructure/choose-infra-install-method.mdx new file mode 100644 index 00000000000..168eb76ccec --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/choose-infra-install-method.mdx @@ -0,0 +1,62 @@ +--- +title: Choisissez votre méthode d'installation d'agent d'infrastructure +tags: + - Infrastructure + - Install the infrastructure agent + - Get started +metaDescription: An overview of installation methods for New Relic's infrastructure agent and infrastructure integrations. +freshnessValidatedDate: '2024-05-21T00:00:00.000Z' +translationType: machine +--- + +L'agent d'infrastructure est un fichier exécutable qui collecte des données sur vos hôtes. Vous pouvez permettre à l'agent d'infrastructure de signaler des données provenant de [certains services tiers](/docs/infrastructure/host-integrations/installation/install-infrastructure-host-integrations) et de collecter également [des données de log](/docs/logs/enable-log-monitoring-new-relic/enable-log-monitoring-new-relic/forward-your-logs-using-infrastructure-agent) . + +L'agent d'infrastructure peut s'exécuter sur Windows, macOS et de nombreuses distributions Linux. Ce document décrit les différentes méthodes que vous pouvez utiliser pour installer l'agent d'infrastructure. Pour commencer, vous aurez besoin d'un [compte New Relic](https://newrelic.com/signup) et d'une clé de licence. + +## Installer l'agent d'infrastructure manuellement [#manual-install] + +Nous vous recommandons de suivre nos procédures d'installation manuelle si vous souhaitez monitorer quelques hôtes, mais rien de plus complexe. En général, vous utiliserez la ligne de commande pour créer un répertoire dans lequel réside l'agent, puis ajouterez les informations de votre clé de licence. Selon votre système d’exploitation, vous devrez peut-être également créer et modifier un fichier de configuration. Pour installer manuellement, commencez ici : + +* [Installer sur système Linux avec un gestionnaire de paquets](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux) +* [Installer sur macOS](/docs/infrastructure/install-infrastructure-agent/macos-installation/install-infrastructure-monitoring-agent-macos) +* Installer sur Windows avec [l'installation MSI](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows), [l'installation zip](/docs/infrastructure/install-infrastructure-agent/windows-installation/zip-assisted-install-infrastructure-agent-windows) ou [l'installation zip manuelle](/docs/infrastructure/install-infrastructure-agent/windows-installation/zip-manual-install-infrastructure-agent-windows) + +## déployer l'agent infrastructure par programmation [#deploy-programmatically] + +Vous pouvez déployer l'agent infrastructure par programmation avec plusieurs outils de gestion de configuration et de déploiement : + +* Ansible[Ansible](/docs/infrastructure/new-relic-infrastructure/config-management-tools/configure-new-relic-infrastructure-using-ansible) +* Chef[Chef](/docs/infrastructure/new-relic-infrastructure/config-management-tools/configure-new-relic-infrastructure-using-chef) +* Docker[Docker](/docs/infrastructure/install-infrastructure-agent/linux-installation/docker-container-infrastructure-monitoring) (installer en tant que conteneur) +* EBS[Elastic Beanstalk](/docs/infrastructure/install-infrastructure-agent/config-management-tools/install-infrastructure-agent-aws-elastic-beanstalk) +* Puppet[Puppet](/docs/infrastructure/new-relic-infrastructure/config-management-tools/configure-new-relic-infrastructure-puppet) + +## Utilisez l'installation guidée [#guided-install] + +L'installation guidée est une seule commande CLI que vous pouvez exécuter pour monitorer votre instance. C'est une bonne option pour les petites organisations ou pour quiconque souhaite tester New Relic. Lorsque vous exécutez la commande CLI, New Relic inspectera votre système pour trouver d'autres technologies de compatibilité que vous souhaiterez peut-être monitorer. Vous recevrez également l'[API d'état de l'infrastructure](https://github.com/newrelic/infrastructure-agent/blob/master/docs/status_api.md) par défaut. + + + La CLI New Relic ne prend pas en charge les serveurs FedRAMP. Si vous êtes client FedRAMP, veuillez vous référer aux [instructions d'installation manuelle](#manual-install). + + +Choisissez [la région de votre data center New Relic](/docs/accounts/accounts-billing/account-setup/choose-your-data-center) pour commencer : + + + + installation guidée pour la région des États-Unis + + + + Installation guidée pour la région de l'UE + + + +## Quelle est la prochaine étape ? [#whats-next] + +Après avoir installé l’agent d’infrastructure : + +* Découvrez comment [configurer l'agent](/docs/infrastructure/install-configure-infrastructure/configuration/configure-infrastructure-agent) ou modifier le [modèle de configuration](https://github.com/newrelic/infrastructure-agent/blob/master/assets/examples/infrastructure/newrelic-infra-template.yml.example). +* Installez [l'intégration sur hôte](/docs/integrations/host-integrations/getting-started/introduction-host-integrations) (par exemple, Apache ou MySQL). +* [Activer le transfert de logà l'aide de l'agent infrastructure ](/docs/logs/enable-new-relic-logs/1-enable-logs/forward-your-logs-using-new-relic-infrastructure). +* Apprenez à [gérer l'agent](/docs/infrastructure/install-infrastructure-agent/manage-your-agent). +* Notre agent d'infrastructure est un fichier exécutable léger. Apprenez-en plus sur ce que cela signifie [ici](/docs/infrastructure/new-relic-infrastructure/getting-started/infrastructure-agent-performance-overhead) \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/ecs-integration-recommended-alert-conditions.mdx b/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/ecs-integration-recommended-alert-conditions.mdx new file mode 100644 index 00000000000..7ac87458d38 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/ecs-integration-recommended-alert-conditions.mdx @@ -0,0 +1,31 @@ +--- +title: Condition d’alerte ECS recommandée +tags: + - Integrations + - Elastic Container Service integration + - Understand use data +metaDescription: Tips for useful alert conditions to set for New Relic's Amazon ECS integration. +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration ECS](/docs/introduction-amazon-ecs-integration) de New Relic génère des rapports et affiche les données de performances de votre environnement [Amazon ECS](https://docs.aws.amazon.com/ecs/index.html) . Ce document fournit certaines conditions d'alerte recommandées pour monitoring des performances de l'ECS. + +## Condition d'alerte recommandée [#alerts] + +Voici quelques conditions d'alerte ECS recommandées. Pour ajouter ces alertes, accédez à l'[UI des alertes](http://one.newrelic.com/alerts/) et ajoutez la [condition d'alerte NRQL ](/docs/alerts/new-relic-alerts/defining-conditions/create-alert-conditions-nrql-queries)suivante à une règle d'alerte existante ou nouvelle : + +* Utilisation élevée du processeur + + * NRQL: `FROM ContainerSample SELECT cpuUsedCoresPercent` + * Critique : > 90 % pendant 5 minutes + +* Utilisation élevée de la mémoire + + * NRQL: `FROM ContainerSample SELECT memoryUsageBytes / memorySizeLimitBytes` + * Critique : > 80 % pendant 5 minutes + +* Nombre de redémarrages + + * NRQL: `FROM ContainerSample SELECT max(restartCount) - min(restartCount)` + * Critique : > 5 pendant 5 minutes \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/install-ecs-integration.mdx b/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/install-ecs-integration.mdx new file mode 100644 index 00000000000..1ab3b40faca --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/install-ecs-integration.mdx @@ -0,0 +1,300 @@ +--- +title: Installer l'intégration ECS +tags: + - Integrations + - Elastic Container Service integration + - Installation +metaDescription: How to install New Relic's Amazon ECS integration. +freshnessValidatedDate: never +translationType: machine +--- + +L'intégration ECS de New Relic génère des rapports et affiche les données de performances de votre environnement Amazon ECS. + +## Présentation de l'installation [#overview] + +Avant d'[installer](#install-options), il peut vous être utile de comprendre à un niveau élevé comment notre agent infrastructure (`newrelic-infra`) est déployé pour ces deux types de lancement : + +* **EC2 and EXTERNAL (ECS Anywhere) launch type:** Notre agent est déployé sur un cluster ECS en tant que service en utilisant la stratégie de planification de déploiement ([expliquée ici dans la documentation AWS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/scheduling_tasks.html)). Cela installe l'agent dans toutes les instances EC2 du cluster, puis monitore ECS et le conteneur Docker . +* **AWS Fargate launch type:** Dans chaque tâche à monitorer, notre agent intervient en tant que side-car. Facultatif : [apprenez-en plus sur la façon dont AWS définit un side-car](https://aws.github.io/copilot-cli/docs/developing/sidecars/). + +## Options d'installation [#install-options] + +Choisissez l'installation que vous souhaitez : + +* [Installer à l'aide d'AWS CloudFormation](#cloud-formation-install) +* [Installer à l'aide d'un script automatique](#auto-script-install) +* [Installer manuellement](#manual-install) + +## Installer à l'aide de CloudFormation [#cloud-formation-install] + +Pour vous aider à installer à l'aide d'AWS CloudFormation, nous fournissons des modèles CloudFormation qui installent l'intégration ECS sur votre compte AWS pour les types de lancement EC2, EXTERNAL (ECS Anywhere) et AWS Fargate. + +Pour installer à l'aide de CloudFormation : + +1. Pour enregistrer la tâche d'intégration ECS, déployez [cette stack](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?templateURL=https://nr-downloads-main.s3.amazonaws.com/infrastructure_agent/integrations/ecs/cloudformation/task/master.yaml&stackName=NewRelicECSIntegration). Assurez-vous de déployer la stack dans la ou les régions souhaitées. Cette stack crée les ressources suivantes : + + * Un secret qui stocke New Relic . + * Une politique pour accéder à la clé de licence. + * Un rôle d’instance à utiliser comme tâche ECS `ExecutionRole`, avec accès à la clé de licence. + * Pour le type de lancement EC2 et externe (ECS Anywhere) : enregistre la tâche d'intégration ECS New Relic Infrastructure. + +2. Suivez les instructions supplémentaires correspondant à votre type de lancement : + + + + Pour créer un service qui exécute la tâche sur chaque instance de conteneur EC2, déployez [cette stack](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?templateURL=https://nr-downloads-main.s3.amazonaws.com/infrastructure_agent/integrations/ecs/cloudformation/service.yaml&NewRelicInfraTaskVersion=1). + + Sélectionnez le type de lancement EC2. Ensuite, un service nommé `newrelic-infra` sera créé dans le cluster. + + + + Pour créer un service qui exécute la tâche sur chaque instance de conteneur externe, déployez [cette stack](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?templateURL=https://nr-downloads-main.s3.amazonaws.com/infrastructure_agent/integrations/ecs/cloudformation/service.yaml&NewRelicInfraTaskVersion=1). + + Sélectionnez le type de lancement EXTERNE. Ensuite, un service nommé `newrelic-infra-external` sera créé dans le cluster. + + + + 1. Téléchargez l'exemple de définition de tâche avec le conteneur sidecar à déployer : + + ```sh + curl -O https://download.newrelic.com/infrastructure_agent/integrations/ecs/newrelic-infra-ecs-fargate-example-latest.json + ``` + + + Pour Graviton, remplacez `"cpuArchitecture": "X86_64"` par `"cpuArchitecture": "ARM64"`. + + + 2. Ajoutez le conteneur `newrelic-infra` dans cette définition de tâche en tant que side-car aux définitions de tâches que vous souhaitez monitorer. Dans cet exemple de tâche, le conteneur de votre application remplace le conteneur espace réservé `busybox` . + + + +Lorsque vous avez terminé, consultez [Étapes suivantes](#next-steps). + +## Installer avec un script automatique [#auto-script-install] + +Une [option d'installation](#install-overview) consiste à utiliser notre script d'installation. Pour utiliser le script d’installation automatique : + +1. Téléchargez le programme d'installation d'intégration ECS : + + ```sh + curl -O https://download.newrelic.com/infrastructure_agent/integrations/ecs/newrelic-infra-ecs-installer.sh + ``` + +2. Ajoutez des autorisations d’exécution au programme d’installation : + + ```sh + chmod +x newrelic-infra-ecs-installer.sh + ``` + +3. Exécutez-le avec `-h` pour voir la documentation et les exigences : + + ```sh + ./newrelic-infra-ecs-installer.sh -h + ``` + +4. Vérifiez que votre profil AWS pointe vers la même région où votre cluster ECS a été créé : + + ```sh + aws configure get region + [output] us-east-1 + [output] + aws ecs list-clusters + [output] YOUR_CLUSTER_ARNS + [output] arn:aws:ecs:us-east-1:YOUR_AWS_ACCOUNT:cluster/YOUR_CLUSTER + ``` + +5. Exécutez le programme d’installation en spécifiant votre et le nom du cluster. + + + + ```sh + ./newrelic-infra-ecs-installer.sh -c YOUR_CLUSTER_NAME -l YOUR_LICENSE_KEY + ``` + + + + ```sh + ./newrelic-infra-ecs-installer.sh -c YOUR_CLUSTER_NAME -l YOUR_LICENSE_KEY -e + ``` + + + + ```sh + ./newrelic-infra-ecs-installer.sh -f -c YOUR_CLUSTER_NAME -l YOUR_LICENSE_KEY + ``` + + + +6. Étapes supplémentaires pour le type de lancement Fargate (pas le type de lancement EC2) : + + * Téléchargez l'exemple de définition de tâche avec le conteneur sidecar à déployer : + + ```sh + curl -O https://download.newrelic.com/infrastructure_agent/integrations/ecs/newrelic-infra-ecs-fargate-example-latest.json + ``` + + + Pour Graviton, remplacez `"cpuArchitecture": "X86_64"` par `"cpuArchitecture": "ARM64"`. + + + Notez que le `NewRelicECSTaskExecutionRole` qui vient d’être créé doit être utilisé comme rôle d’exécution de tâche. Politiques attachées au rôle (tous les types de lancement) : + + * `NewRelicSSMLicenseKeyReadAccess` qui permet d'accéder au paramètre SSM avec la clé de licence. + * `AmazonECSTaskExecutionRolePolicy` + + * Ensuite, vous pouvez ajouter le conteneur que vous souhaitez monitorer en tant que side-car. + +Lorsque vous avez terminé, consultez [Étapes suivantes](#next-steps). + +## Installation manuelle + +Une [option d'installation](#install-overview) consiste à effectuer manuellement les étapes effectuées par le [scriptdu programme d'installation automatique](#auto-script-install). Nous allons décrire comment cela est réalisé à l'aide de l'outil `awscli` : + +1. Vérifiez que votre profil AWS pointe vers la même région où votre cluster ECS a été créé : + + ```sh + aws configure get region + [output] us-east-1 + [output] + aws ecs list-clusters + [output] YOUR_CLUSTER_ARNS + [output] arn:aws:ecs:us-east-1:YOUR_AWS_ACCOUNT:cluster/YOUR_CLUSTER + ``` + +2. Enregistrez votre en tant que paramètre du gestionnaire de système (SSM) : + + ```sh + aws ssm put-parameter \ + --name "/newrelic-infra/ecs/license-key" \ + --type SecureString \ + --description 'New Relic license key for ECS monitoring' \ + --value "NEW_RELIC_LICENSE_KEY" + ``` + +3. Créez une politique IAM pour accéder au paramètre de clé de licence : + + ```sh + aws iam create-policy \ + --policy-name "NewRelicSSMLicenseKeyReadAccess" \ + --policy-document "{\"Version\":\"2012-10-17\",\"Statement\":[{\"Effect\":\"Allow\",\"Action\":[\"ssm:GetParameters\"],\"Resource\":[\"ARN_OF_LICENSE_KEY_PARAMETER\"]}]}" \ + --description "Provides read access to the New Relic SSM license key parameter" + ``` + +4. Créez un rôle IAM à utiliser comme rôle d’exécution de tâche : + + ```sh + aws iam create-role \ + --role-name "NewRelicECSTaskExecutionRole" \ + --assume-role-policy-document '{"Version":"2008-10-17","Statement":[{"Sid":"","Effect":"Allow","Principal":{"Service":"ecs-tasks.amazonaws.com"},"Action":"sts:AssumeRole"}]}' \ + --description "ECS task execution role for New Relic infrastructure" + ``` + +5. Attachez les politiques `NewRelicSSMLicenseKeyReadAccess` et `AmazonECSTaskExecutionRolePolicy` au rôle : + + ```sh + aws iam attach-role-policy \ + --role-name "NewRelicECSTaskExecutionRole" \ + --policy-arn "POLICY_ARN" + ``` + +6. Choisissez votre type de lancement pour plus d'instructions : + + + + Étapes supplémentaires pour le type de lancement EC2 : + + 1. Téléchargez le fichier de modèle de définition de tâche d'intégration New Relic ECS : + + ```sh + curl -O https://download.newrelic.com/infrastructure_agent/integrations/ecs/newrelic-infra-ecs-ec2-latest.json + ``` + + 2. Remplacez le rôle d’exécution de la tâche dans le fichier modèle par le rôle nouvellement créé : + + ```json + "executionRoleArn": "NewRelicECSTaskExecutionRole", + ``` + + 3. Remplacez l'attribut `valueFrom` du `secret` par le nom du paramètre système Manager : + + ```json + "secrets": [ + { + "valueFrom": "/newrelic-infra/ecs/license-key", + "name": "NRIA_LICENSE_KEY" + } + ], + ``` + + 4. Enregistrer le fichier de définition de tâche : + + ```sh + aws ecs register-task-definition --cli-input-json file://newrelic-infra-ecs-ec2-latest.json + ``` + + 5. Créez un service avec la stratégie [de planification du daemon](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs_services.html) pour la tâche enregistrée : + + Pour le type de lancement EC2 : + + ```sh + aws ecs create-service --cluster "YOUR_CLUSTER_NAME" --service-name "newrelic-infra" --task-definition "newrelic-infra" --scheduling-strategy DAEMON --launch-type EC2 + ``` + + Pour le type de lancement EXTERNE (ECS Anywhere) : + + ```sh + aws ecs create-service --cluster "YOUR_CLUSTER_NAME" --service-name "newrelic-infra-external" --task-definition "newrelic-infra" --scheduling-strategy DAEMON --launch-type EXTERNAL + ``` + + + + Étapes supplémentaires pour le type de lancement AWS Fargate : + + 1. Téléchargez l'exemple de définition de tâche avec le conteneur sidecar à déployer : + + ```sh + curl -O https://download.newrelic.com/infrastructure_agent/integrations/ecs/newrelic-infra-ecs-fargate-example-latest.json + ``` + + + Pour Graviton, remplacez `"cpuArchitecture": "X86_64"` par `"cpuArchitecture": "ARM64"`. + + + 2. Ajoutez le conteneur `newrelic-infra` dans cette définition de tâche en tant que side-car aux définitions de tâches que vous souhaitez monitorer. Dans cet exemple de tâche, le conteneur de votre application remplace le conteneur espace réservé `busybox` . + + + +Lorsque vous avez terminé, consultez [Étapes suivantes](#next-steps). + + + +## Prochaines étapes après l'installation [#next-steps] + +Après avoir installé cette intégration : + +* Attendez quelques minutes, puis [recherchez vos données dans l'UI](/docs/ecs-integration-understand-use-data). +* Recommandé : installez notre [cloudd'intégration ECS](/docs/integrations/amazon-integrations/aws-integrations-list/aws-ecsecr-monitoring-integration), qui vous permet d'obtenir d'autres données ECS, notamment des informations sur le cluster et les services. +* Voir [la condition d'alerte recommandée](/docs/ecs-integration-recommended-alert-conditions). +* Comprendre les [ressources AWS](#aws-resources) créées par ce processus. + +## Ressources AWS créées [#aws-resources] + +Lorsque vous installez l’intégration ECS à l’aide des valeurs par défaut/recommandées, elle effectue les opérations suivantes dans AWS : + +* Crée le paramètre `/newrelic-infra/ecs/license-key` du système Manager (SSM). Ce paramètre système contient New Relic . + +* Crée la politique IAM `NewRelicSSMLicenseKeyReadAccess`, qui permet l'accès au paramètre SSM avec la clé de licence. + +* Crée le rôle IAM `NewRelicECSTaskExecutionRole` utilisé comme [rôle d’exécution de tâche](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/task_execution_IAM_role.html). Politiques liées au rôle : + + * `NewRelicSSMLicenseKeyReadAccess` (créé par le programme d'installation). + * `AmazonECSTaskExecutionRolePolicy` + +* Enregistre la définition de tâche ECS `newrelic-infra` pour les types de lancement EC2 et externe (ECS Anywhere). + +* Pour [le type de lancement](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/launch_types.html) EC2, cela se fait également : + * Crée le service `newrelic-infra` pour la tâche enregistrée à l’aide d’une stratégie [de planification de daemon](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs_services.html) et d’un type de lancement EC2. + +* Pour [le type de lancement](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/launch_types.html) EXTERNE (ECS Anywhere), cela se fait également : + * Crée le service `newrelic-infra-external` pour la tâche enregistrée à l'aide d'une stratégie [de planification de daemon](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs_services.html) et d'un type de lancement EXTERNE (ECS Anywhere). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/introduction-amazon-ecs-integration.mdx b/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/introduction-amazon-ecs-integration.mdx new file mode 100644 index 00000000000..412ee9e5508 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/introduction-amazon-ecs-integration.mdx @@ -0,0 +1,59 @@ +--- +title: Introduction à l'intégration d'Amazon ECS +tags: + - Integrations + - Elastic Container Service integration + - Get started +metaDescription: New Relic's ECS integration gives visibility into the performance of your Amazon ECS environment. +freshnessValidatedDate: never +translationType: machine +--- + +Notre intégration ECS génère des rapports et affiche les données de performances de votre environnement [Amazon ECS](https://docs.aws.amazon.com/ecs/index.html) à l'aide de notre agent d'infrastructure et de l'instrumentation Docker. L'intégration ECS fonctionne bien avec d'autres intégrations, vous pouvez donc également [monitorer les services exécutés sur ECS](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). + + + Vous pouvez monitorer toutes les métriques CloudWatch de vos services AWS, y compris l'espace de nommage personnalisé. Pour ce faire, activez l’ [intégration AWS CloudWatch Metric Streams](/docs/infrastructure/amazon-integrations/aws-integrations-list/aws-metric-stream). + + +## Caractéristiques [#features] + +[Amazon Elastic Container Service](https://docs.aws.amazon.com/ecs/index.html) (ECS) est un service de gestion de conteneurs évolutif qui facilite l'exécution, l'arrêt et la gestion des conteneurs Docker sur : + +* Cluster Amazon EC2 +* [AWS Fargate](https://aws.amazon.com/fargate/) +* [ECS n'importe où](https://aws.amazon.com/ecs/anywhere/) + +Notre intégration ECS instrumente l'nstance conteneur sous-jacente et la couche conteneur en rapportant les métriques des objets ECS. L'intégration vous donne des informations détaillées sur votre instance ECS, vos tâches, vos services et votre conteneur. + +New Relic ECS integration dashboard + +
+ **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > All entities > ECS dashboard:** L'intégration ECS rapporte des données de performances sur votre conteneur Amazon ECS. +
+ +Les fonctionnalités incluent : + +* Visualisez vos données dans pré-construits pour des informations détaillées immédiates dans votre environnement ECS. +* Créez vos propres requêtes et graphiques dans le [générateur de requêtes](/docs/chart-builder/use-chart-builder/get-started/introduction-chart-builder). +* Créer [une condition d'alerte](/docs/ecs-integration-recommended-alert-conditions). +* Explorez l'entité à l'aide de notre [explorateur d'entités](/docs/new-relic-one/use-new-relic-one/ui-data/new-relic-one-entity-explorer). + +## Compatibilité et exigences [#requirements] + +Exigences: + +* Agent de conteneur Amazon ECS 1.21.0 ou supérieur. +* Windows n'est pas pris en charge. +* Cette intégration utilise notre [infrastructure agent](/docs/infrastructure/new-relic-infrastructure/getting-started/compatibility-requirements-new-relic-infrastructure) et notre [instrumentation Docker](/docs/infrastructure/install-configure-manage-infrastructure/docker-installation/docker-instrumentation-infrastructure) : les exigences et restrictions applicables de ces systèmes s'appliquent. + +## Installation [#install] + +Pour l'installer, consultez notre [documentation d'intégration d'installation](/docs/install-ecs-integration). + +## Vérifiez le code source [#source-code] + +Cette intégration est un logiciel open source. Cela signifie que vous pouvez [parcourir son code source](https://github.com/newrelic/nri-ecs) et envoyer des améliorations, ou créer votre propre fork et le construire. + +## moniteur avec agents linguistiques APM [#monitor-with-apm] + +Vous pouvez également configurer les agents de langue APM pour qu'ils s'exécutent dans votre environnement ECS Fargate. Pour plus de détails, veuillez consulter l'[agent APM dans le guide de configuration ECS](/docs/infrastructure/elastic-container-service-integration/monitor-ecs-with-apm-agents). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/monitor-ecs-with-apm-agents.mdx b/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/monitor-ecs-with-apm-agents.mdx new file mode 100644 index 00000000000..e8024f6aa4d --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/monitor-ecs-with-apm-agents.mdx @@ -0,0 +1,253 @@ +--- +title: Monitorer les environnements Amazon ECS avec les agents de langage APM +tags: + - APM Agents + - Elastic Container Service + - Fargate +metaDescription: New Relic's APM agents can be setup to monitor your Amazon ECS environment. +freshnessValidatedDate: never +translationType: machine +--- + +Vous pouvez installer des agents monitoring d'applications (APM) New Relic sur votre environnement [Amazon ECS](https://docs.aws.amazon.com/ecs/index.html) . Lorsque vous instrumentez votre environnement avec Docker, vous pouvez collecter et envoyer des données et des métriques APM à la plateforme New Relic. + +## Installez l'agent dans votre conteneur Docker [#install-the-agent] + +Pour ajouter l'agent dans votre conteneur Docker, suivez les étapes d'installation spécifiques à l'agent de langage que vous utilisez : + +* [Java](https://docs.newrelic.com/docs/apm/agents/java-agent/additional-installation/install-new-relic-java-agent-docker/) +* [.NET](https://docs.newrelic.com/install/dotnet/?deployment=linux&docker=yesDocker) +* [Node.js](https://docs.newrelic.com/docs/apm/agents/nodejs-agent/installation-configuration/install-nodejs-agent-docker/) +* [Python](https://docs.newrelic.com/install/python/) + +## Configurez l'agent dans votre définition de tâche ECS [#agent-task-def] + +Afin que l'agent s'exécute dans votre environnement ECS, vous devez modifier votre [fichier de définition de tâche](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/task_definitions.html). Ce fichier vous permet de spécifier les paramètres avec lesquels vous souhaitez que votre application s'exécute. Pour la configuration de l'agent, vous devez définir les variables d'environnement suivantes : + + + + ```json + "environment": [ + # Specify your region-aware host here + { + "name": "NEW_RELIC_HOST", + "value": "collector.newrelic.com" + }, + # App name is required + { + "name": "NEW_RELIC_APP_NAME", + "value": "Fargate Demo (AWS)" + }, + # License key is required + { + "name": "NEW_RELIC_LICENSE_KEY", + "value": "your-license-key" + } + ], + ``` + + + + ```json + "environment": [ + # Specify your region-aware host here + { + "name": "NEW_RELIC_HOST", + "value": "collector.newrelic.com" + }, + # Setting an app name is highly recommended but not required + { + "name": "NEW_RELIC_APP_NAME", + "value": "Fargate Demo (AWS)" + }, + # License key is required + { + "name": "NEW_RELIC_LICENSE_KEY", + "value": "your-license-key" + } + ], + ``` + + + + ```json + "environment": [ + # Specify your region-aware host here + { + "name": "NEW_RELIC_HOST", + "value": "collector.newrelic.com" + }, + # App name is required + { + "name": "NEW_RELIC_APP_NAME", + "value": "Fargate Demo (AWS)" + }, + # License key is required + { + "name": "NEW_RELIC_LICENSE_KEY", + "value": "your-license-key" + } + ], + ``` + + + + ```json + "environment": [ + # Specify your region-aware host here + { + "name": "NEW_RELIC_HOST", + "value": "collector.newrelic.com" + }, + # Setting an app name is highly recommended but not required + { + "name": "NEW_RELIC_APP_NAME", + "value": "Fargate Demo (AWS)" + }, + # License key is required + { + "name": "NEW_RELIC_LICENSE_KEY", + "value": "your-license-key" + } + ], + ``` + + + +## Configurer l'agent d'infrastructure en tant que side-car [#infra-agent-side-car] + +Vous pouvez configurer l'agent d'infrastructure en tant que [conteneur side-car](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/fargate-security-considerations.html) pour vos agents APM, vous offrant ainsi plus de visibilité sur votre environnement. Lorsque vous configurez un side-car pour votre agent APM, vous établissez une relation entre l'application et monitoring de infrastructure afin que les données soient corrélées. Ces données alimentent diverses fonctionnalités de modélisation New Relic, telles que [les cartes de service](/docs/new-relic-solutions/new-relic-one/ui-data/service-maps/service-maps). + +Service map screenshot running language agent and infra agent together in Fargate environment + +
+ Cette carte de service inclut des données issues d'un agent APM avec un agent side-car d'infrastructure dans un environnement Fargate. +
+ +## Exemple de fichier de définition de tâche [#example-task-definition] + +Pour configurer l'agent de langage et l'agent d'infrastructure sidecar, mettez à jour votre fichier de définition de tâche complet. Par exemple: + +```json +{ + "family": "nrExampleFargateDef", + "containerDefinitions": [ + { + "name": "fargate-test", + "image": "nrExample/fargate-test:latest", + "cpu": 256, + "memoryReservation": 1024, + "portMappings": [ + { + "name": "fargate-test-80-tcp", + "containerPort": 80, + "hostPort": 80, + "protocol": "tcp", + "appProtocol": "http" + } + ], + "essential": true, + "environment": [ + { + "name": "NEW_RELIC_HOST", + "value": "collector.newrelic.com" + }, + { + "name": "NEW_RELIC_APP_NAME", + "value": "Fargate Demo (AWS)" + }, + { + "name": "NEW_RELIC_LICENSE_KEY", + "value": "your-license-key" + } + ], + "mountPoints": [], + "volumesFrom": [], + "logConfiguration": { + "logDriver": "awslogs", + "options": { + "awslogs-group": "/ecs/nrExampleFargateDef", + "awslogs-create-group": "true", + "awslogs-region": "us-east-1", + "awslogs-stream-prefix": "ecs" + } + }, + "systemControls": [] + }, + { + "name": "newrelic-infra", + "image": "newrelic/nri-ecs:1.11.10", + "cpu": 256, + "memoryReservation": 512, + "portMappings": [], + "essential": true, + "environment": [ + { + "name": "NRIA_IS_FORWARD_ONLY", + "value": "true" + }, + { + "name": "NRIA_LICENSE_KEY", + "value": "your-license-key" + }, + { + "name": "NRIA_VERBOSE", + "value": "1" + }, + { + "name": "NRIA_PASSTHROUGH_ENVIRONMENT", + "value": "ECS_CONTAINER_METADATA_URI,ECS_CONTAINER_METADATA_URI_V4,FARGATE" + }, + { + "name": "FARGATE", + "value": "true" + }, + { + "name": "NRIA_CUSTOM_ATTRIBUTES", + "value": "{\"nrDeployMethod\":\"downloadPage\"}" + }, + ], + "mountPoints": [], + "volumesFrom": [], + "logConfiguration": { + "logDriver": "awslogs", + "options": { + "awslogs-group": "/newrelic-infra/ecs", + "awslogs-region": "us-east-1", + "awslogs-stream-prefix": "verbose" + } + }, + "systemControls": [] + } + ], + "taskRoleArn": "arn:aws:iam::111111111111:role/ecsTaskExecutionRole", + "executionRoleArn": "arn:aws:iam::111111111111:role/ecsTaskExecutionRole", + "networkMode": "awsvpc", + "requiresCompatibilities": [ + "FARGATE" + ], + "cpu": "1024", + "memory": "3072", + "runtimePlatform": { + "cpuArchitecture": "X86_64", + "operatingSystemFamily": "LINUX" + } +} +``` + +Une fois que vous avez modifié votre fichier de tâches, déclenchez certaines données dans votre environnement, attendez quelques minutes, puis [recherchez vos données dans l'UI](/docs/ecs-integration-understand-use-data). + +## Quelle est la prochaine étape ? [#next-steps] + +Après avoir configuré vos agents : + +* Nous vous recommandons d'installer notre [cloudd'intégration ECS](/docs/integrations/amazon-integrations/aws-integrations-list/aws-ecsecr-monitoring-integration), qui fait apparaître d'autres données ECS, comme les données sur le cluster et les services. + +* Consultez notre doc sous [condition d'alerte](/docs/ecs-integration-recommended-alert-conditions). + +* Si vous souhaitez apporter des configurations supplémentaires à vos agents APM, consultez leurs documents configuration : + + * [Java](https://docs.newrelic.com/docs/apm/agents/java-agent/configuration/java-agent-configuration-config-file/) + * [.NET](https://docs.newrelic.com/docs/apm/agents/net-agent/configuration/net-agent-configuration/) + * [Node.js](https://docs.newrelic.com/docs/apm/agents/nodejs-agent/installation-configuration/nodejs-agent-configuration/) + * [Python](https://docs.newrelic.com/docs/apm/agents/python-agent/configuration/python-agent-configuration/) \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/troubleshooting/ecs-integration-troubleshooting-generate-verbose-logs.mdx b/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/troubleshooting/ecs-integration-troubleshooting-generate-verbose-logs.mdx new file mode 100644 index 00000000000..d6de01848ca --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/troubleshooting/ecs-integration-troubleshooting-generate-verbose-logs.mdx @@ -0,0 +1,233 @@ +--- +title: "Dépannage d'intégration ECS\_: Générer un log détaillé" +type: troubleshooting +tags: + - Integrations + - Elastic Container Service integration + - Troubleshooting +metaDescription: How to generate verbose logs to troubleshoot the New Relic on-host Amazon ECS integration. +freshnessValidatedDate: never +translationType: machine +--- + +## Problème + +Lors du [dépannage de l'intégration ECS sur hôte](/docs/ecs-integration-no-data-appears), vous pouvez générer un log détaillé pendant quelques minutes pour rechercher et étudier les erreurs. Cela peut être utile pour effectuer votre propre dépannage ou pour fournir des informations au [support New Relic](https://support.newrelic.com/). + +Le logging détaillé génère beaucoup de données très rapidement. Une fois la génération du log terminée, assurez-vous de définir `verbose: 0` pour réduire la consommation d'espace disque. + +Vous pouvez automatiser ce processus en utilisant la commande `newrelic-infra-ctl` . Pour plus d'informations, voir [dépannage d'un agent en cours d'exécution](/docs/infrastructure/install-configure-manage-infrastructure/manage-your-agent/troubleshoot-running-agent). + +## Solution + +La génération d'un fichier log détaillé nécessite la modification de votre fichier de définition de tâche. Pour un exemple de fichier de configuration qui inclut tous les paramètres applicables, voir [Paramètres de configuration de l'infrastructure](/docs/infrastructure/install-configure-manage-infrastructure/configuration/infrastructure-configuration-settings). + +Vous disposez de plusieurs options pour implémenter un log détaillé : + +* [Modifiez la variable d'environnement de définition de tâche et effectuez un redémarrage de la tâche](#env-variable) +* Pour le type de lancement EC2 : [Récupérer le log via SSH](#retrieve-logs-via-ssh) +* [Transférer vers CloudWatch et télécharger avec awscli](#forward-logs-cloudwatch) +* [Exécuter une commande à partir du conteneur en cours d’exécution](#running-container) + +### Utilisation de la variable d'environnement de définition de tâche [#env-variable] + +Pour activer le log détaillé en modifiant la variable d'environnement et en effectuant un redémarrage de la tâche : + +1. Modifiez votre définition de tâche. Modifiez la valeur de `NRIA_VERBOSE` de `0` à : + + * `1` pour un log détaillé toujours actif + * `2` pour un logging intelligent + * `3` pour l'envoi à New Relic + + En savoir [plus sur ces options](/docs/infrastructure/install-configure-manage-infrastructure/configuration/infrastructure-configuration-settings#verbose). + +2. Enregistrez votre définition de tâche. + +3. Mettez à jour votre service pour utiliser la définition de tâche nouvellement enregistrée. + +4. Si vous avez choisi `NRIA_VERBOSE=3` et que vous n'envoyez pas le log directement à New Relic, vous avez deux options pour afficher et télécharger le log : + + * Pour le type de lancement EC2 : vous pouvez [récupérer le log via SSH](#retrieve-logs-via-ssh), ou + * [Transférer le log vers CloudWatch](#forward-logs-cloudwatch) + +5. Rétablir les paramètres par défaut : + + 1. Désactivez le logging détaillé en modifiant votre définition de tâche et en définissant `NRIA_VERBOSE` sur `0`. + 2. Enregistrez votre définition de tâche. + 3. Mettez à jour votre service vers la dernière version de votre tâche. + +6. Examinez le fichier de log pour détecter les erreurs. + +7. Si vous devez envoyer votre fichier de log au [support New Relic](https://support.newrelic.com/): + + 1. Inclure la ligne dans votre fichier de log qui contient la version d'intégration ECS : + + ``` + New Relic ECS integration version X.YY.ZZZ + ``` + + 2. Joignez le fichier de log à votre ticket d'assistance, ainsi que votre définition de tâche .yml déposer. + +### Récupérer le log via SSH (type de lancement EC2 uniquement) [#retrieve-logs-via-ssh] + +Pour obtenir le log via SSH : + +1. Modifiez votre définition de tâche. Modifiez la valeur de `NRIA_VERBOSE` de `0` à : + + * `1` pour un log détaillé toujours actif + * `2` pour un logging intelligent + * `3` pour l'envoi à New Relic + + En savoir [plus sur ces options](/docs/infrastructure/install-configure-manage-infrastructure/configuration/infrastructure-configuration-settings#verbose). + +2. Connectez-vous en SSH à l'une de vos instances de conteneur. + +3. Recherchez l'ID de conteneur du conteneur d'intégration New Relic, en exécutant la commande `docker ps -a`. Le nom du conteneur doit être `nri-ecs`. + +4. Sauvegardez le log du conteneur avec la commande `docker logs NRI_ECS_CONTAINER_ID > logs.txt`. Laissez la commande s’exécuter pendant environ trois minutes pour générer suffisamment de données de logging. + +5. Continuez avec les instructions de la section [Activer le log détaillé](#env-variable) . + +### Transférer le log vers CloudWatch et le télécharger avec awscli [#forward-logs-cloudwatch] + +Pour obtenir le log via CloudWatch: + +1. Modifiez votre définition de tâche. Modifiez la valeur de `NRIA_VERBOSE` de `0` à : + + * `1` pour un log détaillé toujours actif + * `2` pour un logging intelligent + * `3` pour l'envoi à New Relic + + En savoir [plus sur ces options](/docs/infrastructure/install-configure-manage-infrastructure/configuration/infrastructure-configuration-settings#verbose). + +2. Nous utilisons un CloudWatch log groupe appelé `/newrelic-infra/ecs` pour transférer le log. Pour voir s'il existe déjà, exécutez : + + ```sh + aws logs describe-log-groups --log-group-name-prefix /newrelic-infra/ecs + ``` + + Si un groupe log existe avec ce préfixe, vous obtiendrez cette sortie : + + ```json + { + "logGroups": [ + { + "logGroupName": "/newrelic-infra/ecs", + "creationTime": 1585828615225, + "metricFilterCount": 0, + "arn": "arn:aws:logs:YOUR_REGION:YOUR_AWS_ACCOUNT:log-group:/newrelic-infra/ecs:*", + "storedBytes": 122539356 + } + ] + } + ``` + + Étant donné que cette commande correspond aux groupes log avec des préfixes, assurez-vous que le nom du groupe log renvoyé est exactement `/newrelic-infra/ecs`. Si le groupe log n'existe pas, la sortie sera : + + ```json + { + "logGroups": [] + } + ``` + +3. Si le groupe log n'existe pas, créez-le en exécutant : + + ```sh + aws logs create-log-group --log-group-name /newrelic-infra/ecs + ``` + +4. Modifiez votre définition de tâche. Dans la définition de conteneur pour le conteneur `newrelic-infra` , ajoutez ce qui suit `logConfiguration`: + + ```json + "logConfiguration": { + "logDriver": "awslogs", + "options": { + "awslogs-group": "/newrelic-infra/ecs", + "awslogs-region": "AWS_REGION_OF_YOUR_CLUSTER", + "awslogs-stream-prefix": "verbose" + } + } + ``` + +5. Enregistrez la nouvelle version de la tâche et mettez à jour votre service. + +6. Ensuite, vous rechercherez le flux log pertinent. Si vous avez plusieurs instances de la tâche en cours d'exécution, elles enverront toutes leur log au même groupe log , mais chacune aura son propre flux log . les noms des flux de logs suivent la structure `AWSLOGS_STREAM_PREFIX/TASK_FAMILY_NAME/TASK_ID`. Dans ce cas, ce sera `verbose/newrelic-infra/TASK_ID`. + + Pour obtenir tous les flux log pour un groupe log donné, exécutez cette commande : + + ```sh + aws logs describe-log-streams --log-group-name /newrelic-infra/ecs + ``` + + Voici un exemple de sortie d’un groupe log avec deux flux : + + ```json + { + "logStreams": [ + { + "logStreamName": "verbose/newrelic-infra/9dfb28114e40415ebc399ec1e53a21b7", + "creationTime": 1586166741197, + "firstEventTimestamp": 1586166742030, + "lastEventTimestamp": 1586173933472, + "lastIngestionTime": 1586175101220, + "uploadSequenceToken": "49599989655680038369205623273330095416487086853777112338", + "arn": "arn:aws:logs:AWS_REGION_OF_YOUR_CLUSTER:YOUR_AWS_ACCOUNT:log-group:/newrelic-infra/ecs:log-stream:verbose/newrelic-infra/9dfb28114e40415ebc399ec1e53a21b7", + "storedBytes": 0 + }, + { + "logStreamName": "verbose/newrelic-infra/f6ce0be416804bc4bfa658da5514eb00", + "creationTime": 1586166745643, + "firstEventTimestamp": 1586166746491, + "lastEventTimestamp": 1586173037927, + "lastIngestionTime": 1586175100660, + "uploadSequenceToken": "49605664273821671319096446647846424799651902350804230514", + "arn": "arn:aws:logs:AWS_REGION_OF_YOUR_CLUSTER:YOUR_AWS_ACCOUNT:log-group:/newrelic-infra/ecs:log-stream:verbose/newrelic-infra/f6ce0be416804bc4bfa658da5514eb00", + "storedBytes": 0 + } + ] + } + ``` + +7. Dans la liste précédente des flux de log , identifiez celui avec l'ID de tâche pour lequel vous souhaitez récupérer le log et utilisez logStreamName dans cette commande : + + ```sh + aws logs get-log-events --log-group-name /newrelic-infra/ecs --log-stream-name "LOG_STREAM_NAME" --output text > logs.txt + ``` + +8. Continuez avec les instructions [d’activation du log détaillé](#env-variable) . + +### À partir du conteneur en cours d'exécution [#running-container] + +Pour activer le log détaillé en exécutant une commande à partir du conteneur en cours d'exécution : + +1. Connectez-vous en SSH à l'une de vos instances de conteneur. + +2. Recherchez l'ID de conteneur du conteneur d'intégration New Relic en exécutant la commande `docker ps -a`. Le nom du conteneur doit être `nri-ecs`. + +3. Activez le log détaillé pendant une période limitée en utilisant `newrelic-infra-ctl`. Exécutez la commande : + + ```sh + docker exec INTEGRATION_CONTAINER_ID /usr/bin/newrelic-infra-ctl + ``` + + Pour plus de détails, voir [Résoudre les problèmes de l'agent](/docs/infrastructure/install-configure-manage-infrastructure/manage-your-agent/troubleshoot-running-agent). + +4. Sauvegardez le log du conteneur avec la commande + + ```sh + docker logs INTEGRATION_CONTAINER_ID > logs.txt + ``` + + Laissez la commande s’exécuter pendant environ trois minutes pour générer suffisamment de données de logging. + +5. Examinez le fichier de log pour détecter les erreurs. + +Si vous devez envoyer votre fichier de log au [support New Relic](https://support.newrelic.com/): + +1. Inclure la ligne dans votre fichier de log qui contient la version d'intégration ECS : + + ``` + New Relic ECS integration version X.YY.ZZZ + ``` + +2. Joignez le fichier de log à votre ticket d'assistance, ainsi que votre définition de tâche .yml déposer. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/troubleshooting/ecs-integration-troubleshooting-no-data-appears.mdx b/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/troubleshooting/ecs-integration-troubleshooting-no-data-appears.mdx new file mode 100644 index 00000000000..2ea4cf7ecd4 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/troubleshooting/ecs-integration-troubleshooting-no-data-appears.mdx @@ -0,0 +1,217 @@ +--- +title: 'ECS intégration dépannage : Aucune donnée n''apparaît' +type: troubleshooting +tags: + - Integrations + - Elastic Container Service integration + - Troubleshooting +metaDescription: Troubleshooting tips for when New Relic's on-host Amazon ECS integration is not reporting data. +freshnessValidatedDate: never +translationType: machine +--- + +## Problème + +Vous avez installé notre [intégration ECS sur hôte](/docs/introduction-amazon-ecs-integration) et attendu quelques minutes, mais votre cluster n'apparaît pas dans la [liste des entités](/docs/new-relic-solutions/new-relic-one/core-concepts/new-relic-explorer-view-performance-across-apps-services-hosts#find). + + + Nous avons deux intégrations ECS : une [intégration basée sur le cloud](/docs/integrations/amazon-integrations/aws-integrations-list/aws-ecsecr-monitoring-integration) et une intégration sur hôte. Ce document concerne l'intégration sur hôte. + + +## Solution + +Si vous avez déjà installé l'agent infrastructure ou une intégration infrastructure sur hôte, vos données devraient apparaître dans [l'UI](/docs/ecs-integration-understand-use-data) en quelques minutes. + +Si vous n’avez effectué aucune de ces opérations avant d’installer l’intégration ECS sur l’hôte, il faudra peut-être des dizaines de minutes pour que les données apparaissent dans l’ UI. Dans ce cas, nous vous recommandons d'attendre jusqu'à une heure avant d'effectuer les étapes de dépannage suivantes ou de contacter le support. + +Il existe plusieurs options pour le dépannage aucune donnée n'apparaissant : + +* [Dépannage via l'outil awscli](#awscli) (recommandé lors de la discussion avec le support technique de New Relic) +* [Dépannage via l'UI](#ui) + +Pour plus d'informations sur les tâches arrêtées, voir [Raisons des tâches arrêtées](#stopped-tasks). + +### Dépannage via awscli [#awscli] + +Lorsque vous interagissez avec le support New Relic, utilisez cette méthode et envoyez les fichiers générés avec votre demande d'assistance : + +1. Récupérer les informations relatives au service `newrelic-infra` ou au service Fargate qui contient une tâche avec un sidecar `newrelic-infra` : + + ```sh + aws ecs describe-services --cluster YOUR_CLUSTER_NAME --service newrelic-infra > newrelic-infra-service.json + ``` + + ```sh + aws ecs describe-services --cluster YOUR_CLUSTER_NAME --service YOUR_FARGATE_SERVICE_WITH_NEW_RELIC_SIDECAR > newrelic-infra-sidecar-service.json + ``` + +2. L'attribut `failures` détaille toutes les erreurs des services. + +3. Sous `services` se trouve l'attribut `status` . Il indique `ACTIVE` si le service ne présente aucun problème. + +4. Le `desiredCount` doit correspondre au `runningCount`. Il s’agit du nombre de tâches traitées par le service. Étant donné que nous utilisons le type de service daemon, il doit y avoir une tâche par instance de conteneur dans votre cluster. L'attribut `pendingCount` doit être nul, car toutes les tâches doivent être en cours d'exécution. + +5. Inspectez l’attribut `events` de `services` pour vérifier les problèmes de planification ou de démarrage des tâches. Par exemple : si le service ne parvient pas à démarrer les tâches avec succès, il affichera un message du type : + + ```json + { + "id": "5295a13c-34e6-41e1-96dd-8364c42cc7a9", + "createdAt": "2020-04-06T15:28:18.298000+02:00", + "message": "(service newrelic-ifnra) is unable to consistently start tasks successfully. For more information, see the Troubleshooting section of the Amazon ECS Developer Guide." + } + ``` + +6. Dans la même section, vous pouvez également voir quelles tâches ont été démarrées par le service à partir de l'événement : + + ```json + { + "id": "1c0a6ce2-de2e-49b2-b0ac-6458a804d0f0", + "createdAt": "2020-04-06T15:27:49.614000+02:00", + "message": "(service fargate-fail) has started 1 tasks: (task YOUR_TASK_ID)." + } + ``` + +7. Récupérez les informations liées à la tâche avec cette commande : + + ```sh + aws ecs describe-tasks --tasks YOUR_TASK_ID --cluster YOUR_CLUSTER_NAME > newrelic-infra-task.json + ``` + +8. Les `desiredStatus` et `lastStatus` doivent être `RUNNING`. Si la tâche n'a pas pu démarrer normalement, elle aura un statut `STOPPED` . + +9. Inspectez les `stopCode` et `stoppedReason`. Un exemple de raison : une tâche qui n'a pas pu être démarrée parce que le rôle d'exécution de tâche ne dispose pas des autorisations appropriées pour télécharger le secret contenant la clé de licence aurait la sortie suivante : + + ```json + "stopCode": "TaskFailedToStart", + "stoppedAt": "2020-04-06T15:28:54.725000+02:00", + "stoppedReason": "Fetching secret data from AWS Secrets Manager in region YOUR_AWS_REGION: secret arn:aws:secretsmanager:YOUR_AWS_REGION:YOUR_AWS_ACCOUNT:secret:NewRelicLicenseKeySecret-Dh2dLkgV8VyJ-80RAHS-fail: AccessDeniedException: User: arn:aws:sts::YOUR_AWS_ACCOUNT:assumed-role/NewRelicECSIntegration-Ne-NewRelicECSTaskExecution-1C0ODHVT4HDNT/8637b461f0f94d649e9247e2f14c3803 is not authorized to perform: secretsmanager:GetSecretValue on resource: arn:aws:secretsmanager:YOUR_AWS_REGION:YOUR_AWS_ACCOUNT:secret:NewRelicLicenseKeySecret-Dh2dLkgV8VyJ-80RAHS-fail-DmLHfs status code: 400, request id: 9cf1881e-14d7-4257-b4a8-be9b56e09e3c", + "stoppingAt": "2020-04-06T15:28:10.953000+02:00", + ``` + +10. Si la tâche est en cours d'exécution mais que vous ne voyez toujours pas de données, générez [un log détaillé](/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior) et examinez-le pour détecter les erreurs. + +Pour plus de détails sur les raisons des tâches arrêtées, voir [Tâches arrêtées](#stopped-tasks). + +### Dépannage dans l'UI [#ui] + +Pour utiliser l'UI pour résoudre les problèmes : + +1. Connectez-vous à votre AWS Console et accédez à la section Service du conteneur EC2. +2. Cliquez sur le cluster où vous avez installé l’intégration New Relic ECS. +3. Dans l’onglet **Services** , utilisez le filtre pour rechercher le service d’intégration. Si vous avez utilisé le script d'installation automatique, le nom du service sera `newrelic-infra`. Si vous utilisez Fargate, ce sera le nom de votre service de monitoring. Une fois trouvé, cliquez sur le nom. +4. La page de service affiche le **Status** du service. Il indique `ACTIVE` si le service ne présente aucun problème. +5. Sur la même page, le nombre **Desired** doit correspondre au nombre **Running** . Il s’agit du nombre de tâches traitées par le service. Étant donné que nous utilisons le type de service daemon, il doit y avoir une tâche par instance de conteneur dans votre cluster. Le nombre en attente doit être nul, car toutes les tâches doivent être en cours d'exécution. +6. Inspectez l’onglet **Events** pour vérifier les problèmes de planification ou de démarrage des tâches. +7. Dans l'onglet **Tasks** de votre service, vous pouvez inspecter les tâches en cours d'exécution et les tâches arrêtées en cliquant sur le sélecteur **Task status** . les conteneurs qui n'ont pas pu démarrer sont affichés lorsque vous sélectionnez le statut **Stopped** . +8. Cliquez sur une tâche pour accéder à la page des détails de la tâche. Sous **Stopped reason**, un message expliquant pourquoi la tâche a été arrêtée s'affiche. +9. Si la tâche est en cours d'exécution mais que vous ne voyez toujours pas de données, générez [un log détaillé](/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior) et examinez-le pour détecter les erreurs. + +Pour plus de détails sur les raisons des tâches arrêtées, voir [Tâches arrêtées](#stopped-tasks). + +### Raisons des tâches arrêtées [#stopped-tasks] + +Dans la [documentation de dépannage d'AWS ECS,](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/troubleshooting.html) vous trouverez des informations sur les causes courantes d'erreurs liées à l'exécution de tâches et de services. Voir ci-dessous pour plus de détails sur certaines raisons pour lesquelles les tâches sont arrêtées. + + + **Task stopped with reason:** + + +``` +Fetching secret data from AWS Secrets Manager + in region YOUR_AWS_REGION: + secret arn:aws:secretsmanager:YOUR_AWS_REGION:YOUR_AWS_ACCOUNT:secret:YOUR_SECRET_NAME: + AccessDeniedException: User: arn:aws:sts::YOUR_AWS_ACCOUNT:assumed-role/YOUR_ROLE_NAME + is not authorized to perform: secretsmanager:GetSecretValue + on resource: arn:aws:secretsmanager:YOUR_AWS_REGION:YOUR_AWS_ACCOUNT:secret:YOUR_SECRET_NAME + status code: 400, request id: 9cf1881e-14d7-4257-b4a8-be9b56e09e3c" +``` + +Cela signifie que le rôle IAM spécifié à l'aide de `executionRoleArn` dans la définition de tâche n'a pas accès au secret utilisé pour `NRIA_LICENSE_KEY`. Le rôle d’exécution doit avoir une politique associée qui lui accorde l’accès à la lecture du secret. + +1. Obtenez le rôle d'exécution de votre tâche : + + ```sh + aws ecs describe-task-definition --task-definition newrelic-infra --output text --query taskDefinition.executionRoleArn + ``` + + Vous pouvez remplacer le `--task-definition newrelic-infra` par le nom de votre tâche fargate qui inclut le conteneur sidecar. + + ```sh + aws ecs describe-task-definition --task-definition YOUR_FARGATE_TASK_NAME --output text --query taskDefinition.executionRoleArn + ``` + +2. Énumérez les politiques attachées au rôle : + + ```sh + aws iam list-attached-role-policies --role-name YOUR_EXECUTION_ROLE_NAME + ``` + + Cela devrait renvoyer 3 politiques `AmazonECSTaskExecutionRolePolicy`, `AmazonEC2ContainerServiceforEC2Role` et une troisième qui devrait accorder un accès en lecture à . Dans l'exemple suivant, la politique est nommée `NewRelicLicenseKeySecretReadAccess`. + + ```json + { + "AttachedPolicies": [ + { + "PolicyName": "AmazonECSTaskExecutionRolePolicy", + "PolicyArn": "arn:aws:iam::aws:policy/service-role/AmazonECSTaskExecutionRolePolicy" + }, + { + "PolicyName": "AmazonEC2ContainerServiceforEC2Role", + "PolicyArn": "arn:aws:iam::aws:policy/service-role/AmazonEC2ContainerServiceforEC2Role" + }, + { + "PolicyName": "YOUR_POLICY_NAME", + "PolicyArn": "arn:aws:iam::YOUR_AWS_ACCOUNT:policy/YOUR_POLICY_NAME" + } + ] + } + ``` + +3. Récupérer la version de la politique par défaut : + + ```sh + aws iam get-policy-version --policy-arn arn:aws:iam::YOUR_AWS_ACCOUNT:policy/YOUR_POLICY_NAME --version-id $(aws iam get-policy --policy-arn arn:aws:iam::YOUR_AWS_ACCOUNT:policy/YOUR_POLICY_NAME --output text --query Policy.DefaultVersionId) + ``` + + Cela récupère les autorisations de politique. Il devrait y avoir une entrée pour l'action`secretsmanager:GetSecretValue` si vous avez utilisé AWS Secrets Manager pour stocker votre , ou une entrée pour `ssm:GetParameters`si vous avez utilisé AWS système Manager Parameter Store : + + + + ```json + { + "PolicyVersion": { + "Document": { + "Version": "2012-10-17", + "Statement": [ + { + "Action": "secretsmanager:GetSecretValue", + "Resource": "arn:aws:secretsmanager:YOUR_AWS_REGION:YOUR_AWS_ACCOUNT:secret:YOUR_SECRET_NAME", + "Effect": "Allow" + } + ] + }, + "VersionId": "v1", + "IsDefaultVersion": true, + "CreateDate": "2020-03-31T13:47:07+00:00" + } + } + ``` + + + + ```json + { + "Version": "2012-10-17", + "Statement": [ + { + "Action": "ssm:GetParameters", + "Resource": [ + "arn:aws:ssm:YOUR_AWS_REGION:YOUR_AWS_ACCOUNT:parameter/YOUR_SECRET_NAME" + ], + "Effect": "Allow" + } + ] + } + ``` + + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/understand-use-ecs-data.mdx b/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/understand-use-ecs-data.mdx new file mode 100644 index 00000000000..e66de8ea402 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/understand-use-ecs-data.mdx @@ -0,0 +1,52 @@ +--- +title: Comprendre et utiliser les données ECS +tags: + - Integrations + - Elastic Container Service integration + - Understand use data +metaDescription: 'How to understand, use, and query the data reported by New Relic''s Amazon ECS on-host integration.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration ECS](/docs/introduction-amazon-ecs-integration) sur hôte de New Relic génère des rapports et affiche les données de performances de votre environnement [Amazon ECS](https://docs.aws.amazon.com/ecs/index.html) . Nous expliquons ici comment trouver, comprendre et utiliser les données rapportées par cette intégration. + +## Afficher les données [#find-data] + +Pour afficher le dashboard d'intégration ECS : + +1. Accédez à **[one.newrelic.com](https://one.newrelic.com/all-capabilities)** et, dans le champ **Filter by name or tags** , recherchez le cluster ECS ou saisissez le nom de votre cluster ECS. +2. Pour afficher un dashboard, sélectionnez le nom de l'entité correspondant à votre cluster ECS. + +En plus du dashboard prédéfini, vous pouvez également créer vos propres requêtes et graphiques personnalisés à l'aide du [générateur de requêtes](/docs/chart-builder/use-chart-builder/get-started/introduction-chart-builder). Pour savoir comment interroger ces données, consultez [Comprendre les données](#understand). + +## Interrogez vos données [#understand] + +Les données rapportées par cette intégration sont affichées dans son [dashboard](#find-data) et sont également disponibles pour [l'interrogation](/docs/using-new-relic/data/understand-data/query-new-relic-data) et la création de graphiques et de dashboards personnalisés. + +Cette intégration rapporte un [événement](/docs/using-new-relic/data/understand-data/new-relic-data-types#events-new-relic) `EcsClusterSample` , avec l'attribut `clusterName`, `awsRegion`, `ecsLaunchType` et `arn`. + +Autres types de données pouvant être disponibles pour l'interrogation : + +* [événement signalé par l'agent d'infrastructure, y compris](/docs/infrastructure/manage-your-data/data-instrumentation/default-infrastructure-events) [Docker](/docs/infrastructure/install-configure-manage-infrastructure/docker-installation/docker-instrumentation-infrastructure#docker-data) + +Tous les événements signalés à partir d'un cluster ECS contiennent l'attribut `ecsClusterName`, `ecsLaunchType` et `ecsClusterArn`. + +Voici un exemple [de requête NRQL ](/docs/query-data/nrql-new-relic-query-language/getting-started/introduction-nrql)qui renvoie le nombre de conteneurs associés à chaque image Docker dans un cluster ECS nommé `MyClusterName` créé dans `us-east-1`: + +```sql +SELECT uniqueCount(containerId) +FROM ContainerSample +WHERE awsRegion = 'us-east-1' +AND ecsClusterName = 'MyClusterName' +FACET imageName SINCE 1 HOUR AGO +``` + + + Sur les nœuds EC2 avec la version V2 de Cgroup, l’intégration `nri-docker` collecte toutes les métriques de conteneur de l’API Docker. Pour une liste des variations dans les métriques collectées, voir l'attribut [`ContainerSample`](/attribute-dictionary/?event=ContainerSample) . + + +Pour en savoir plus sur la création de requêtes et de graphiques personnalisés : + +* [Comment interroger les données New Relic](/docs/using-new-relic/data/understand-data/query-new-relic-data) +* [Introduction à NRQL](/docs/query-data/nrql-new-relic-query-language/getting-started/introduction-nrql) \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/uninstall-ecs-integration.mdx b/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/uninstall-ecs-integration.mdx new file mode 100644 index 00000000000..cedfdee830f --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/elastic-container-service-integration/uninstall-ecs-integration.mdx @@ -0,0 +1,131 @@ +--- +title: Désinstaller l'intégration ECS +tags: + - Integrations + - Elastic Container Service integration + - Installation +metaDescription: How to uninstall New Relic's on-host Amazon ECS integration. +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration ECS](/docs/introduction-amazon-ecs-integration) sur hôte de New Relic génère des rapports et affiche les données de performances de votre environnement [Amazon ECS](https://docs.aws.amazon.com/ecs/index.html) . Lisez la suite pour savoir comment désinstaller cette intégration. + +## Désinstaller + +Il existe plusieurs options de désinstallation, selon la manière dont vous [avez effectué l'installation](/docs/install-ecs-integration#install-ec2): + +* [Désinstaller avec CloudFormation](#cloudformation) +* [Utiliser un scriptde programme d'installation automatique](#auto-installer) +* [Désinstallation manuelle](#manual-uninstall) + +### Désinstallation de CloudFormation [#cloudformation] + +Pour désinstaller l’intégration ECS à l’aide des modèles CloudFormation : + +1. Accédez à la [liste des piles dans votre console AWS.](https://console.aws.amazon.com/cloudformation/home?#/stacks?filteringText=&filteringStatus=active&viewNested=true&hideStacks=false) + +2. Pour chaque stack de New Relic : + + 1. Sélectionnez la stack + 2. Cliquez sur le bouton Supprimer + 3. Cliquez sur le bouton Supprimer stack dans la fenêtre contextuelle de confirmation. + +### Désinstallation automatique [#auto-installer] + +Pour désinstaller l'intégration ECS à l'aide du script du programme d'installation : + +* Pour le type de lancement EC2 et EXTERNE : exécuter + + ```ah + ./newrelic-infrastructure-ecs-installer.sh -u -c YOUR_CLUSTER_NAME + ``` + +* Pour le type de lancement Fargate : + + ```sh + ./newrelic-infrastructure-ecs-installer.sh -f -u -c YOUR_CLUSTER_NAME + ``` + +Vous n’avez besoin d’exécuter la commande qu’une seule fois, quel que soit le nombre de nœuds de votre cluster. La commande supprimera les [ressources AWS créées pendant la procédure d'installation](/docs/install-ecs-integration#aws-resources). + +Le programme d'installation fournit un mode d'exécution à sec qui vous montre les commandes awscli qui vont être exécutées. Le mode d'exécution à sec pour le processus de désinstallation est activé en passant l'indicateur `-d` à la commande : + +```sh +./newrelic-infrastructure-ecs-installer.sh -d -u -c YOUR_CLUSTER_NAME +``` + +### Désinstallation manuelle + +Pour désinstaller manuellement, vous devez supprimer toutes les [ressources AWS](/docs/install-ecs-integration#aws-resources) liées à l'intégration. Pour ce faire : + +1. Vérifiez que votre profil AWS pointe vers la même région où votre cluster ECS a été créé : + + ```sh + aws configure get region + [output] us-east-1 + [output] + aws ecs list-clusters + [output] YOUR_CLUSTER_ARNS + [output] arn:aws:ecs:us-east-1:YOUR_AWS_ACCOUNT:cluster/YOUR_CLUSTER + ``` + +2. Supprimez le paramètre système Manager (SSM) qui stocke le New Relic : + + ```sh + aws ssm delete-parameter --name "/newrelic-infra/ecs/license-key" + ``` + +3. Avant de supprimer le rôle IAM, vous devez détacher toutes ses politiques. Pour obtenir une liste des politiques ci-jointes : + + ```sh + aws iam list-attached-role-policies \ + --role-name "NewRelicECSTaskExecutionRole" \ + --output text \ + --query 'AttachedPolicies[*].PolicyArn' + ``` + +4. Détachez toutes les politiques renvoyées à l’étape précédente du rôle IAM : + + ```sh + aws iam detach-role-policy --role-name "NewRelicECSTaskExecutionRole" --policy-arn "POLICY_ARN" + ``` + +5. Supprimer le rôle IAM : + + ```sh + aws iam delete-role --role-name "NewRelicECSTaskExecutionRole" + ``` + +6. Supprimez la stratégie IAM `NewRelicSSMLicenseKeyReadAccess`, qui accorde à système Manager l'accès à la clé de licence : + + ```sh + aws iam delete-policy --policy-arn "POLICY_ARN" + ``` + +7. Les étapes restantes concernent uniquement le type de lancement EC2 et EXTERNE, et non Fargate : + + 1. Supprimer les services : + + ```sh + aws ecs delete-service --service "newrelic-infra" --cluster "YOUR_CLUSTER_NAME" + ``` + + ```sh + aws ecs delete-service --service "newrelic-infra-external" --cluster "YOUR_CLUSTER_NAME" + ``` + + 2. Répertoriez la définition de tâche pour la famille de tâches `newrelic-infra` : + + ```sh + aws ecs list-task-definitions \ + --family-prefix newrelic-infra \ + --output text \ + --query taskDefinitionArns + ``` + + 3. Annuler l'enregistrement des tâches : + + ```sh + aws ecs deregister-task-definition --task-definition "TASK_DEFINITION_ARN" + ``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-alloydb-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-alloydb-monitoring-integration.mdx new file mode 100644 index 00000000000..63013022a8b --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-alloydb-monitoring-integration.mdx @@ -0,0 +1,612 @@ +--- +title: Intégration monitoring AlloyDB +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic''s AlloyDB integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +Nous proposons une intégration cloud pour signaler vos données GCP AlloyDB à notre plateforme. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +L'[intervalle d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration GCP AlloyDB dans New Relic est de 5 minutes. + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez l’intégration. + +Les données sont attachées aux [types d’événements](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivants : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Cluster + + `GcpAlloydbClusterSample` + + `GcpAlloydbCluster` +
+ base de données + + `GcpAlloydbDatabaseSample` + + `GcpAlloydbDatabase` +
+ exemple + + `GcpAlloydbInstanceSample` + + `GcpAlloydbInstance` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données GCP AlloyDB pour le cluster, la base de données et l'instance. + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ cluster.storage.Usage + + Octets + + Le stockage total d'AlloyDB en octets sur l'ensemble du cluster. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ database.postgresql.insights.aggregate.ExecutionTime + + Microsecondes + + Temps d'exécution de requête cumulé depuis le dernier échantillon. Il s'agit de la somme du temps CPU, du temps d'attente des E/S, du temps d'attente du verrouillage, du changement de contexte de processus et de la planification de tous les processus impliqués dans l'exécution de la requête. +
+ database.postgresql.insights.aggregate.IoTime + + Microsecondes + + Temps d'E/S accumulé depuis le dernier échantillon. +
+ database.postgresql.insights.aggregate.Latencies + + Microsecondes + + Répartition de la latence des requêtes. +
+ database.postgresql.insights.aggregate.LockTime + + Microsecondes + + Temps d'attente de verrouillage accumulé depuis le dernier échantillon. +
+ database.postgresql.insights.aggregate.Row + + Compter + + Le nombre de lignes récupérées ou affectées depuis le dernier échantillon. +
+ database.postgresql.insights.aggregate.SharedBlkAccess + + Compter + + Blocs partagés (tables régulières et indexées) accessibles par l'exécution d'instructions. +
+ database.postgresql.insights.perquery.ExecutionTime + + Microsecondes + + Temps d'exécution cumulés par utilisateur par base de données et par requête. Il s'agit de la somme du temps CPU, du temps d'attente des E/S, du temps d'attente du verrouillage, du changement de contexte de processus et de la planification de tous les processus impliqués dans l'exécution de la requête. +
+ database.postgresql.insights.perquery.IoTime + + Microsecondes + + Temps d'E/S accumulé depuis le dernier échantillon. +
+ database.postgresql.insights.perquery.Latencies + + Microsecondes + + Répartition de la latence des requêtes. +
+ database.postgresql.insights.perquery.LockTime + + Microsecondes + + Temps d'attente de verrouillage accumulé depuis le dernier échantillon. +
+ database.postgresql.insights.perquery.Row + + Compter + + Le nombre de lignes récupérées ou affectées depuis le dernier échantillon. +
+ database.postgresql.insights.perquery.SharedBlkAccess + + Compter + + Blocs partagés (tables régulières et indexées) accessibles par l'exécution d'instructions. +
+ database.postgresql.insights.pertag.ExecutionTime + + Microsecondes + + Temps d'exécution cumulés depuis le dernier échantillon. Il s'agit de la somme du temps CPU, du temps d'attente des E/S, du temps d'attente du verrouillage, du changement de contexte de processus et de la planification de tous les processus impliqués dans l'exécution de la requête. +
+ database.postgresql.insights.pertag.IoTime + + Microsecondes + + Temps d'E/S accumulé depuis le dernier échantillon. +
+ database.postgresql.insights.pertag.Latencies + + Microsecondes + + Répartition de la latence des requêtes. +
+ database.postgresql.insights.pertag.LockTime + + Microsecondes + + Temps d'attente de verrouillage accumulé depuis le dernier échantillon. +
+ database.postgresql.insights.pertag.Row + + Compter + + Le nombre de lignes récupérées ou affectées depuis le dernier échantillon. +
+ database.postgresql.insights.pertag.SharedBlkAccess + + Compter + + Blocs partagés (tables régulières et indexées) accessibles par l'exécution d'instructions. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ instance.cpu.AverageUtilization + + Pour cent + + Utilisation moyenne du processeur sur tous les nœuds actuellement en service de l'instance, de 0 à 100. +
+ instance.cpu.MaximumUtilization + + Pour cent + + Utilisation maximale du processeur sur tous les nœuds actuellement en service de l'instance, de 0 à 100. +
+ instance.cpu.Vcpus + + Compter + + Le nombre de vCPU alloués à chaque nœud de l'instance. +
+ instance.memory.MinAvailableMemory + + Octets + + La mémoire minimale disponible sur tous les nœuds actuellement en service de l'instance. La mémoire disponible est une estimation de la mémoire en octets disponible pour l'allocation sur la machine virtuelle, y compris la mémoire actuellement utilisée, mais pouvant être potentiellement libérée. +
+ instance.postgres.Abort + + Compter + + Le nombre de transactions qui ont été annulées sur tous les nœuds de service de l'instance. +
+ instance.postgres.AverageConnections + + Compter + + Nombre moyen de connexions actives et inactives à AlloyDB sur les nœuds de service de l'instance. +
+ instance.postgres.Commit + + Compter + + Le nombre de transactions validées sur tous les nœuds de service de l'instance. +
+ instance.postgres.ConnectionsLimit + + Compter + + La limite actuelle du nombre de connexions par nœud de l'instance AlloyDB. +
+ instance.postgres.Instances + + Compter + + Le nombre de nœuds dans l'instance, ainsi que leur statut, qui peut être en hausse ou en baisse. +
+ instance.postgres.replication.MaximumLag + + Millisecondes + + Le délai de réplication maximal calculé sur toutes les répliques de lecture en service de l'instance. Le délai de réplication est dérivé de la valeur replay\_lag. +
+ instance.postgres.replication.Replicas + + Compter + + Le nombre de répliques de lecture connectées à l'instance principale. +
+ instance.postgres.TotalConnections + + Compter + + Le nombre de connexions actives et inactives à l'instance AlloyDB sur les nœuds de service de l'instance. +
+ instance.postgres.Transaction + + Compter + + Le nombre de transactions validées et annulées sur tous les nœuds de service de l'instance. +
+
+
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-app-engine-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-app-engine-monitoring-integration.mdx new file mode 100644 index 00000000000..2947d210100 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-app-engine-monitoring-integration.mdx @@ -0,0 +1,347 @@ +--- +title: Intégration monitoring de Google App Engine +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic''s Google App Engine integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +New Relic propose une [intégration](/docs/infrastructure/introduction-infra-monitoring) qui récupère des données sur vos services [Google App Engine](https://cloud.google.com/appengine/) afin que vous puissiez afficher les données dans l'UI de New Relic. + +Pour plus d'informations sur monitoring des applications qui **reside in** un environnement Google App Engine avec (au lieu de savoir comment monitorer vos services Google App Engine), consultez [Environnement Google App Engine](/docs/accounts/install-new-relic/partner-based-installation/google-app-engine-environment). + +## Fonctionnalité de l'intégration de Google App Engine [#features] + +Vous pouvez utiliser l'intégration de Google App Engine pour afficher des graphiques et définir pour vos services Google App Engine dans New Relic et pour [créer des requêtes et des graphiques personnalisés](/docs/using-new-relic/data/understand-data/query-new-relic-data). Google App Engine est un service Google Cloud Platform qui fait abstraction de l'infrastructure sous-jacente de vos applications mobiles et Web, vous permettant de vous concentrer sur leur développement. + +* Le **Google App Engine Standard environment** fournit un ensemble d'environnements d'exécution préconfigurés et convient aux applications qui nécessitent une mise à l'échelle rapide et entièrement gérée. +* Le **Google App Engine Flexible environment** exécute des applications dans le conteneur Docker et convient aux applications qui nécessitent une mise à l'échelle progressive et configurable. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## Fréquence des sondages [#polling] + +New Relic interroge vos services Google App Engine sur la base d'un intervalle d'interrogation de 5 minutes. La résolution est de 1 point de données par minute. + +## Rechercher et utiliser des données [#find-data] + +Après [avoir connecté l'intégration de Google App Engine à New Relic](/docs/connect-google-cloud-platform-services-infrastructure) et attendu quelques minutes (en fonction de la [fréquence d'interrogation](#polling)), vous pouvez [rechercher et utiliser les données d'intégration](/docs/telemetry-data-platform/understand-data/new-relic-data-types/): + + + + + + + + + + + + + + + + + + + + + + + +
+ Afficher les données d'intégration de Google App Engine + + Ici... +
+ et [alertes](/docs/infrastructure/new-relic-infrastructure/infrastructure-alert-conditions/infrastructure-alerts-add-edit-or-view-host-alert-information#integration) + + Allez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP > Google App Engine**. +
+ [Données métriques](#metrics) sur dashboard personnalisé + + [Créez une requête et des graphiques personnalisés](/docs/using-new-relic/data/understand-data/query-new-relic-data) à l'aide de l'événement `GcpAppEngineServiceSample` et `GcpCloudTasksQueueSample` . +
+ +## données métriques [#metrics] + +Pour afficher [les données métriques](/docs/telemetry-data-platform/understand-data/new-relic-data-types/#metrics) de votre intégration de Google App Engine dans New Relic, [créez une requête NRQL ](/docs/integrations/new-relic-integrations/getting-started/use-integration-data-new-relic-insights#nrql)pour [l'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `GcpAppEngineServiceSample` et `GcpCloudTasksQueueSample` et leur attribut associé. + + + Différentes métriques sont disponibles selon que votre application s'exécute dans un [environnement standard ou flexible](#environments), donc certaines métriques peuvent ne pas être disponibles pour votre application. + + +### Exemple de service GcpAppEngine [#gcp-app-engine-service-sample] + +requête `GcpAppEngineServiceSample` événement dans New Relic pour afficher les données de l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut + + Description +
+ `flex.Cpu.ReservedCores` + + Nombre total de cœurs de processeur alloués à une version d'environnement flexible App Engine. +
+ `flex.Cpu.Utilization` + + La fraction du processeur alloué utilisée dans une version d'environnement flexible App Engine. +
+ `flex.Disk.ReadBytes` + + Nombre delta d'octets lus à partir du disque dans une version d'environnement flexible App Engine. +
+ `flex.Disk.WriteBytes` + + Nombre delta d'octets écrits à partir du disque dans une version d'environnement flexible App Engine. +
+ `flex.Disk.ReceivedBytes` + + Nombre delta d'octets réseau entrants sur toutes les machines virtuelles dans une version d'environnement flexible App Engine. +
+ `flex.Disk.SentBytes` + + Nombre delta d'octets réseau sortants sur toutes les machines virtuelles dans une version d'environnement flexible App Engine. +
+ `server.DosIntercepts` + + Nombre delta d'interceptions effectuées pour prévenir les attaques DoS. +
+ `server.QuotaDenials` + + Nombre delta de requests ayant échoué en raison d'un dépassement de quota de l'application. +
+ `server.Responses` + + Nombre de réponses HTTP Delta. +
+ `server.ResponseLatenciesMilliseconds` + + Latence de réponse HTTP, en millisecondes. +
+ `server.ResponseStyle` + + Delta compte sur le style de service HTTP. +
+ `memcache.CentiMcu` + + Utilisation de Memcache, en 1/100e d'une unité de calcul Memcache. +
+ `memcache.Operations` + + Nombre d'opérations clés memcache . +
+ `memcache.ReceivedBytes` + + Nombre d'octets reçus par l'application depuis l'API memcache. +
+ `memcache.SentBytes` + + Nombre d'octets envoyés par l'application via l'API memcache. +
+ `system.cpu.Usage` + + Utilisation du processeur en mégacycles. +
+ `system.Instances` + + Nombre d'instances existantes. +
+ `system.Memory.UsageBytes` + + Mémoire totale utilisée par l'instance en cours d'exécution. +
+ `system.Network.ReceivedBytes` + + Nombre delta de bande passante réseau entrante. +
+ `system.Network.SentBytes` + + Nombre delta de bande passante réseau sortante. +
+ +### Exemple de file d'attente de tâches GcpCloud [#gcp-cloud-tasks-queue-sample] + +requête `GcpCloudTasksQueueSample` événement dans New Relic pour afficher les données de l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut + + Description +
+ `api.Requests` + + Nombre de tâches Cloud appel d'API. +
+ `queue.TaskAttempts` + + Nombre de tentatives de tâche réparties par code de réponse. +
+ `queue.taskAttemptDelaysMilliseconds` + + Délai entre chaque heure de tentative planifiée et l'heure de tentative réelle. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-bigquery-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-bigquery-monitoring-integration.mdx new file mode 100644 index 00000000000..9818ce89492 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-bigquery-monitoring-integration.mdx @@ -0,0 +1,226 @@ +--- +title: Intégration Google BigQuery monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic''s Google BigQuery integration: how to activate it and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +L'intégration de New Relic avec [Google Cloud Platform (GCP)](https://cloud.google.com/) inclut une intégration permettant de signaler les données [Google BigQuery](https://cloud.google.com/bigquery/) à New Relic. Ce document explique comment activer l'intégration de Google BigQuery et décrit les données qui peuvent être signalées. + +## Caractéristiques + +Google BigQuery est un entrepôt de données sans infrastructure à gérer. Avec BigQuery, vous pouvez spécifier le schéma de données ou laisser le service le découvrir pour vous. Vous pouvez explorer vos données à l'aide d'une requête SQL. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## Fréquence des sondages [#polling] + +New Relic intégration requête des services GCP selon un intervalle d'interrogation qui varie en fonction de l'intégration. La fréquence d'interrogation pour l'intégration de Google BigQuery est de cinq minutes. Pour plus d'informations sur la résolution, voir [les détails des données métriques](#metrics). + +## Activer les métriques du tableau [#table-metrics] + +La collecte des métriques de table BigQuery est désactivée par défaut. Cela affecte les métriques répertoriées sous [GcpBigQueryTableSample](#table-sample). Pour collecter ces métriques, activez le paramètre « Activer les métriques de table » dans le menu de configuration de l'intégration BigQuery. + +## Rechercher et utiliser des données [#find-data] + +Après avoir activé l'intégration et attendu quelques minutes (en fonction de la [fréquence d'interrogation](#polling)), les données apparaîtront dans l'UI de New Relic. Pour [rechercher et utiliser vos données](/docs/infrastructure/integrations/find-use-infrastructure-integration-data), y compris les liens vers vos et vos paramètres d'alerte, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP > (select an integration)**. + +## données métriques [#metrics] + +Pour afficher [les données métriques](/docs/telemetry-data-platform/understand-data/new-relic-data-types/#metrics) de votre intégration Google BigQuery dans New Relic, [créez une requête NRQL ](/docs/integrations/new-relic-integrations/getting-started/use-integration-data-new-relic-insights#nrql)pour `GcpBigQueryProjectSample`, `GcpBigQueryDatasetSample` et `GcpBigQueryTableSample` [événement](/docs/using-new-relic/welcome-new-relic/getting-started/glossary#event) et leur attribut. + +### Exemple de projet GcpBigQuery [#project-sample] + +requête `GcpBigQueryProjectSample` événement dans New Relic pour afficher les données pour les métriques suivantes. La résolution est d'un point de données par minute avec un délai de 8 minutes. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut + + Description +
+ `query.Count` + + Requête en vol. +
+ `query.ExecutionTimes` + + Distribution des temps d'exécution des requêtes. +
+ `slots.Allocated` + + Nombre d'emplacements actuellement alloués au projet. +
+ `slots.AllocatedForProject` + + Nombre d'emplacements actuellement alloués aux tâches de requête dans le projet. +
+ `slots.AllocatedForProjectAndJobType` + + Nombre d'emplacements actuellement alloués au projet et au type de travail. +
+ `slots.AllocatedForReservation` + + Nombre d'emplacements actuellement alloués au projet dans la réservation. +
+ `slots.TotalAllocatedForReservation` + + Nombre d'emplacements actuellement attribués aux projets de la réservation. +
+ `slots.TotalAvailable` + + Nombre total d'emplacements disponibles pour le projet. +
+ +### Exemple de jeu de données GcpBigQuery [#dataset-sample] + +requête `GcpBigQueryDatasetSample` événement dans New Relic pour afficher les données pour les métriques suivantes. La résolution est d'un point de données toutes les 30 minutes avec un délai de 3 heures. + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut + + Description +
+ `storage.StoredBytes` + + Quantité d'octets stockés. +
+ `storage.Tables` + + Nombre de tables. +
+ +### Exemple de table GcpBigQuery [#table-sample] + +requête `GcpBigQueryTableSample` événement pour afficher les données pour les métriques suivantes. La résolution est d'un point de données par minute avec un délai de 6 heures. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut + + Description +
+ `storage.UploadedBytes` + + Octets téléchargés. +
+ `storage.UploadedBytesBilled` + + Octets téléchargés facturés. Actuellement, seule l'API de streaming est facturée. +
+ `storage.UploadedRowCount` + + Lignes téléchargées. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-bigtable-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-bigtable-monitoring-integration.mdx new file mode 100644 index 00000000000..4d1cdbfe115 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-bigtable-monitoring-integration.mdx @@ -0,0 +1,380 @@ +--- +title: IntégrationGoogle Cloud Bigtable monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic''s Google Cloud Spanner integration: how to activate it and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +Nous proposons une intégration cloud pour signaler vos données GCP Bigtable sur notre plateforme. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration GCP Bigtable : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez l’intégration. + +Les données sont attachées aux [types d’événements](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivants : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Cluster + + `GcpBigtableClusterSample` + + `GcpBigtableCluster` +
+ Tableau + + `GcpBigtableTableSample` + + `GcpBigtableTable` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données GCP Bigtable pour Cluster et Table. + +### Données Cluster Bigtable + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `cluster.CpuLoad` + + Compter + + Charge CPU d'un cluster. +
+ `cluster.CpuLoadHottestNode` + + Compter + + Charge CPU du nœud le plus occupé d'un cluster. +
+ `cluster.DiskLoad` + + Compter + + Utilisation des disques durs dans un cluster. +
+ `cluster.Node` + + Compter + + Nombre de nœuds dans un cluster. +
+ `cluster.StorageUtilization` + + Compter + + Stockage utilisé en tant que fraction de la capacité de stockage totale. +
+ `disk.BytesUsed` + + Octets + + Quantité de données compressées pour les tables stockées dans un cluster. +
+ `disk.StorageCapacity` + + Octets + + Capacité des données compressées pour les tables pouvant être stockées dans un cluster. +
+ +### Données de la table Bigtable + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `replication.Latency` + + Millisecondes + + Répartition de la latence des demandes de réplication pour une table. Inclut uniquement requests qui ont été reçues par le cluster de destination. +
+ `replication.MaxDelay` + + Secondes + + Limite supérieure du délai de réplication entre les clusters d'une table. Indique la période pendant laquelle les informations de latence peuvent ne pas être exactes. +
+ `server.Error` + + Compter + + Nombre de requests serveur pour une table qui ont échoué avec une erreur. +
+ `server.Latencies` + + Millisecondes + + Répartition de la latence des requêtes serveur pour une table, mesurée lorsque les appels atteignent Cloud Bigtable. +
+ `server.ModifiedRows` + + Compter + + Nombre de lignes modifiées par requests du serveur pour une table. +
+ `server.MultiClusterFailovers` + + Compter + + Nombre de basculements lors multi-cluster requests. +
+ `server.ReceivedBytes` + + Octets + + Nombre d'octets non compressés de données de demande reçus par les serveurs pour une table. +
+ `server.Request` + + Compter + + Nombre de requests serveur pour une table. +
+ `server.ReturnedRows` + + Compter + + Nombre de lignes renvoyées par requests du serveur pour une table. +
+ `server.SentBytes` + + Octets + + Nombre d'octets non compressés de données de réponse envoyés par les serveurs pour une table. +
+ `table.BytesUsed` + + Octets + + Quantité de données compressées stockées dans une table. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-composer-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-composer-monitoring-integration.mdx new file mode 100644 index 00000000000..43ce0b0fa7d --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-composer-monitoring-integration.mdx @@ -0,0 +1,520 @@ +--- +title: IntégrationGoogle Cloud Composer monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: Google Cloud Composer monitoring integration. +freshnessValidatedDate: never +translationType: machine +--- + +Nous proposons une intégration cloud pour signaler vos données GCP Composer à notre plateforme. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration de GCP Composer : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez l’intégration. + +Les données sont attachées aux [types d’événements](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivants : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Environnement + + `GcpComposerEnvironmentSample` + + `GcpComposerEnvironment` +
+ Workflow + + `GcpComposerWorkflowSample` + + `GcpComposerWorkflow` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données GCP Composer pour l'environnement et le workflow. + +### Données d'environnement du compositeur + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `environment.api.Request` + + Compter + + Nombre de requests API Composer observées jusqu'à présent. +
+ `environment.api.RequestLatencies` + + Millisecondes + + Distribution de Composer appel d'API latence. +
+ `environment.dag_processing.ParseError` + + Compter + + Nombre d'erreurs générées lors de l'analyse des fichiers DAG. +
+ `environment.dag_processing.Processes` + + Compter + + Nombre de processus d'analyse DAG actuellement en cours d'exécution. +
+ `environment.dag_processing.ProcessorTimeout` + + Compter + + Nombre de fichiers que le processeur a arrêtés en raison d'un délai de traitement dépassé. +
+ `environment.dag_processing.TotalParseTime` + + Secondes + + Nombre de secondes nécessaires pour analyser et importer tous les fichiers DAG une fois. +
+ `environment.DagbagSize` + + Compter + + La taille actuelle du sac à dos. +
+ `environment.database.cpu.ReservedCores` + + Compter + + Nombre de cœurs réservés à l'instance de base de données. +
+ `environment.database.cpu.UsageTime` + + Secondes + + Temps d'utilisation du processeur de l'instance de base de données. +
+ `environment.database.cpu.Utilization` + + Compter + + Taux d'utilisation du processeur (de 0,0 à 1,0) de l'instance de base de données. +
+ `environment.database.disk.BytesUsed` + + Octets + + Espace disque utilisé en octets sur l'instance de base de données. +
+ `environment.database.disk.Quota` + + Octets + + Taille maximale du disque de données en octets de l'instance de base de données. +
+ `environment.database.disk.Utilization` + + Compter + + Taux d'utilisation du quota de disque (de 0,0 à 1,0) de l'instance de base de données. +
+ `environment.database.memory.BytesUsed` + + Octets + + Utilisation de la mémoire de l'instance de base de données en octets. +
+ `environment.database.memory.Quota` + + Octets + + Taille maximale de la RAM en octets de l'instance de base de données. +
+ `environment.database.memory.Utilization` + + Compter + + Taux d'utilisation de la mémoire (de 0,0 à 1,0) de l'instance de base de données. +
+ `environment.executor.OpenSlots` + + Compter + + Nombre d'emplacements ouverts sur l'exécuteur. +
+ `environment.executor.RunningTasks` + + Compter + + Nombre de tâches en cours d'exécution sur l'exécuteur. +
+ `environment.FinishedTaskInstance` + + Compter + + Instance de tâche globale. +
+ `environment.NumCeleryWorkers` + + Compter + + Nombre d'ouvriers Celery . +
+ `environment.SchedulerHeartbeat` + + Compter + + Battements de cœur du planificateur. +
+ `environment.TaskQueueLength` + + Compter + + Nombre de tâches dans la file d'attente. +
+ `environment.worker.PodEviction` + + Compter + + Le nombre d'expulsions de pods de travailleurs Airflow. +
+ `environment.ZombieTaskKilled` + + Compter + + Nombre de tâches zombies tuées. +
+ +### Données de workflow du compositeur + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `workflow.Run` + + Compter + + Nombre d’exécutions de workflow terminées jusqu’à présent. +
+ `workflow.RunDuration` + + Secondes + + Durée d'exécution du workflow. +
+ `workflow.task.Run` + + Compter + + Nombre de tâches de workflow terminées jusqu'à présent. +
+ `workflow.task.RunDuration` + + Secondes + + Durée d'exécution de la tâche. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-dataflow-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-dataflow-monitoring-integration.mdx new file mode 100644 index 00000000000..5688973dd84 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-dataflow-monitoring-integration.mdx @@ -0,0 +1,330 @@ +--- +title: IntégrationGoogle Cloud Dataflow monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic Google Cloud Dataflow integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données GCP Dataflow à nos produits. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration GCP Dataflow : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez une intégration. + +Les données sont jointes au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Emploi + + `GcpDataflowJobSample` + + `GcpDataflowJob` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données GCP Dataflow pour Job. + +### Données de travail Dataflow + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `job.BillableShuffleDataProcessed` + + Octets + + Les octets facturables de données de mélange traitées par cette tâche Dataflow. +
+ `job.CurrentNumVcpus` + + Compter + + Le nombre de vCPU actuellement utilisés par ce travail Dataflow. Il s’agit du nombre actuel de travailleurs multiplié par le nombre de vCPU par travailleur. +
+ `job.CurrentShuffleSlots` + + Compter + + Les emplacements de mélange actuels utilisés par cette tâche Dataflow. +
+ `job.DataWatermarkAge` + + Secondes + + L'âge (temps écoulé depuis l'horodatage de l'événement) jusqu'auquel toutes les données ont été traitées par le pipeline. +
+ `job.ElapsedTime` + + Secondes + + Durée pendant laquelle l'exécution actuelle de ce pipeline a été dans l'état En cours d'exécution jusqu'à présent, en secondes. Lorsqu'une exécution est terminée, la durée de cette exécution reste la même jusqu'au début de l'exécution suivante. +
+ `job.Elements` + + Compter + + Nombre d'éléments ajoutés à la collection jusqu'à présent. +
+ `job.EstimatedBytes` + + Octets + + Nombre estimé d'octets ajoutés à la pcollection jusqu'à présent. Dataflow calcule la taille moyenne codée des éléments dans une pcollection et la multiplie par le nombre d'éléments. +
+ `job.IsFailed` + + Compter + + Ce travail a échoué ? +
+ `job.PerStageDataWatermarkAge` + + Secondes + + L'âge (temps écoulé depuis l'horodatage de l'événement) jusqu'auquel toutes les données ont été traitées par cette étape du pipeline. +
+ `job.PerStageSystemLag` + + Secondes + + La durée maximale actuelle pendant laquelle un élément de données a été traité ou en attente de traitement, en secondes, par étape du pipeline. +
+ `job.SystemLag` + + Secondes + + La durée maximale actuelle pendant laquelle un élément de données a été traité ou en attente de traitement, en secondes. +
+ `job.TotalMemoryUsageTime` + + Autre + + Le nombre total de Go de secondes de mémoire allouées à cette tâche Dataflow. +
+ `job.TotalPdUsageTime` + + Autre + + Le nombre total de Go de secondes pour tous les disques persistants utilisés par tous les travailleurs associés à cette tâche Dataflow. +
+ `job.TotalShuffleDataProcessed` + + Octets + + Le nombre total d'octets de données de mélange traités par ce travail Dataflow. +
+ `job.TotalStreamingDataProcessed` + + Octets + + Le nombre total d'octets de données de streaming traités par ce travail Dataflow. +
+ `job.TotalVcpuTime` + + Secondes + + Le nombre total de secondes vCPU utilisées par cette tâche Dataflow. +
+ `job.UserCounter` + + Compter + + Une métrique de compteur définie par l'utilisateur. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-dataproc-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-dataproc-monitoring-integration.mdx new file mode 100644 index 00000000000..9ca3a6de881 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-dataproc-monitoring-integration.mdx @@ -0,0 +1,386 @@ +--- +title: IntégrationGoogle Cloud Dataproc monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic Google Dataproc monitoring integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données GCP Dataproc à nos produits. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration GCP Dataproc : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez une intégration. + +Les données sont jointes au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Cluster + + `GcpDataprocClusterSample` + + `GcpDataprocCluster` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données GCP Dataproc pour Cluster. + +### Données Cluster Dataproc + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `cluster.hdfs.Datanodes` + + Compter + + Indique le nombre de DataNodes HDFS en cours d'exécution dans un cluster. +
+ `cluster.hdfs.StorageCapacity` + + Gibioctets + + Indique la capacité du système HDFS exécuté sur le cluster en Go. +
+ `cluster.hdfs.StorageUtilization` + + Pour cent + + Le pourcentage de stockage HDFS actuellement utilisé. +
+ `cluster.hdfs.UnhealthyBlocks` + + Compter + + Indique le nombre de blocs défectueux à l'intérieur du cluster. +
+ `cluster.job.CompletionTime` + + Secondes + + Le temps nécessaire à l'exécution des tâches à partir du moment où l'utilisateur soumet une tâche jusqu'au moment où Dataproc signale qu'elle est terminée. +
+ `cluster.job.Duration` + + Secondes + + Le temps que les emplois ont passé dans un état donné. +
+ `cluster.job.Failures` + + Compter + + Indique le nombre de tâches qui ont échoué sur un cluster. +
+ `cluster.job.Running` + + Compter + + Indique le nombre de tâches en cours d'exécution sur un cluster. +
+ `cluster.job.Submitted` + + Compter + + Indique le nombre de tâches qui ont été soumises à un cluster. +
+ `cluster.operation.CompletionTime` + + Secondes + + Le temps nécessaire aux opérations pour se terminer à partir du moment où l'utilisateur soumet une opération jusqu'au moment où Dataproc signale qu'elle est terminée. +
+ `cluster.operation.Duration` + + Secondes + + Le temps que les opérations ont passé dans un état donné. +
+ `cluster.operation.Failures` + + Compter + + Indique le nombre d’opérations qui ont échoué sur un cluster. +
+ `cluster.operation.Running` + + Compter + + Indique le nombre d’opérations en cours d’exécution sur un cluster. +
+ `cluster.operation.Submitted` + + Compter + + Indique le nombre d'opérations qui ont été soumises à un cluster. +
+ `cluster.yarn.AllocatedMemoryPercentage` + + Pour cent + + Le pourcentage de mémoire YARN est alloué. +
+ `cluster.yarn.Apps` + + Compter + + Indique le nombre d'applications YARN actives. +
+ `cluster.yarn.Containers` + + Compter + + Indique le nombre de conteneurs YARN. +
+ `cluster.yarn.MemorySize` + + Gibioctets + + Indique la taille de la mémoire YARN en Go. +
+ `cluster.yarn.Nodemanagers` + + Compter + + Indique le nombre de NodeManagers YARN exécutés à l'intérieur du cluster. +
+ `cluster.yarn.PendingMemorySize` + + Gibioctets + + La demande de mémoire actuelle, en Go, qui est en attente d'être satisfaite par le planificateur. +
+ `cluster.yarn.VirtualCores` + + Compter + + Indique le nombre de cœurs virtuels dans YARN. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-firebase-database-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-firebase-database-monitoring-integration.mdx new file mode 100644 index 00000000000..b0f6db25923 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-firebase-database-monitoring-integration.mdx @@ -0,0 +1,316 @@ +--- +title: IntégrationGoogle Cloud de la base de données Firebase monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic Google Dataproc monitoring integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration pour rapporter vos données de base de données GCP Firebase à nos produits. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à de New Relic monitoring infrastructure](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration de la base de données GCP Firebase : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez une intégration. + +Les données sont jointes au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ espace de nommage + + `GcpFirebasedatabaseNamespaceSample` + + `GcpFirebasedatabaseNamespace` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données de la base de données GCP Firebase pour l'espace de nommage. + +### Firebase base de données espace de nommage data + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `io.DatabaseLoad` + + Compter + + Fraction de la charge de la base de données, regroupée par type. +
+ `io.PersistedBytes` + + Octets + + Octets de données conservés sur le disque. +
+ `io.SentResponses` + + Compter + + Nombre de réponses envoyées ou diffusées aux clients. +
+ `io.Utilization` + + Compter + + Fraction d'I/O utilisée. +
+ `network.ActiveConnections` + + Compter + + Le nombre de connexions en attente +
+ `network.ApiHits` + + Compter + + Le nombre de résultats obtenus dans votre base de données, regroupés par type. +
+ `network.BroadcastLoad` + + Compter + + Utilisation du temps nécessaire à la préparation et à l’envoi des diffusions aux clients. +
+ `network.HttpsRequests` + + Compter + + Nombre de requests HTTPS reçues. +
+ `network.MonthlySent` + + Octets + + Le total des octets sortants envoyés est agrégé et réinitialisé mensuellement. +
+ `network.MonthlySentLimit` + + Octets + + La limite mensuelle du réseau pour la base de données Firebase. +
+ `network.SentBytes` + + Octets + + La bande passante sortante utilisée par la base de données, y compris le calcul et la surcharge du protocole. +
+ `network.SentPayloadAndProtocolBytes` + + Octets + + L'utilisation de la bande passante sortante sans frais de calcul. +
+ `network.SentPayloadBytes` + + Octets + + L'utilisation de la bande passante sortante sans chiffrement ni protocole. +
+ `rules.Evaluation` + + Compter + + Nombre d'évaluations de règles de sécurité de base de données Firebase Realtime effectuées en réponse aux requests d'écriture et de lecture. +
+ `storage.Limit` + + Octets + + La limite de stockage pour la base de données Firebase. +
+ `storage.TotalBytes` + + Octets + + La taille du stockage de la base de données Firebase. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-firebase-hosting-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-firebase-hosting-monitoring-integration.mdx new file mode 100644 index 00000000000..cafdac91c8d --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-firebase-hosting-monitoring-integration.mdx @@ -0,0 +1,162 @@ +--- +title: Intégration de l'hébergementGoogle Cloud Firebase monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic Google Dataproc monitoring integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données d'hébergement GCP Firebase à nos produits. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration de GCP Firebase Hosting : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez une intégration. + +Les données sont jointes au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ domaine + + `GcpFirebasehostingDomainSample` + + `GcpFirebasehostingDomain` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données d'hébergement GCP Firebase pour le domaine. + +### Données du domaine d'hébergement Firebase + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `network.MonthlySent` + + Octets + + Le total des octets sortants envoyés est agrégé et réinitialisé mensuellement. +
+ `network.MonthlySentLimit` + + Octets + + La limite mensuelle du réseau pour Firebase Hosting. +
+ `network.SentBytes` + + Octets + + L'utilisation de la bande passante sortante pour l'hébergement Firebase. +
+ `storage.Limit` + + Octets + + La limite de stockage pour Firebase Hosting. +
+ `storage.TotalBytes` + + Octets + + La taille du stockage d'hébergement Firebase. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-firebase-storage-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-firebase-storage-monitoring-integration.mdx new file mode 100644 index 00000000000..440d5703d5b --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-firebase-storage-monitoring-integration.mdx @@ -0,0 +1,106 @@ +--- +title: Intégration deGoogle Cloud Firebase Storage monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic Google Dataproc monitoring integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données de stockage GCP Firebase à nos produits. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration de GCP Firebase Storage : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez une intégration. + +Les données sont jointes au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Seau + + `GcpFirebasestorageBucketSample` + + `GcpFirebasestorageBucket` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données de stockage GCP Firebase pour Bucket. + +### Données du bucket de stockage Firebase + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `rules.Evaluation` + + Compter + + Nombre d'évaluations des règles de sécurité Cloud Storage pour Firebase effectuées en réponse aux requests d'écriture ou de lecture. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-firestore-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-firestore-monitoring-integration.mdx new file mode 100644 index 00000000000..80d96a2288d --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-firestore-monitoring-integration.mdx @@ -0,0 +1,226 @@ +--- +title: IntégrationGoogle Cloud Firestore monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic Google Dataproc monitoring integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données GCP Firestore à nos produits. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration GCP Firestore : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez une intégration. + +Les données sont jointes au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Demande + + `GcpFirestoreRequestSample` + + `GcpFirestoreRequest` +
+ exemple + + `GcpFirestoreInstanceSample` + + `GcpFirestoreInstance` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données GCP Firestore pour la demande et l'instance. + +### Demande de données Firestore + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `api.Request` + + Compter + + Comte de Firestore appel d'API. +
+ +### Données d'instance Firestore + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `document.Delete` + + Compter + + Le nombre de suppressions de documents réussies. +
+ `document.Read` + + Compter + + Le nombre de lectures de documents réussies à partir de requêtes ou de recherches. +
+ `document.Write` + + Compter + + Le nombre d'écritures de documents réussies. +
+ `network.ActiveConnections` + + Compter + + Le nombre de connexions actives. Chaque client mobile aura une connexion. Chaque écouteur dans le SDK d'administration sera une connexion. +
+ `network.SnapshotListeners` + + Compter + + Le nombre d'écouteurs d'instantanés actuellement enregistrés sur tous les clients connectés. +
+ `rules.Evaluation` + + Compter + + Nombre d'évaluations de règles de sécurité Cloud Firestore effectuées en réponse à requests d'écriture (création, mise à jour, suppression) ou de lecture (obtention, liste). +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-functions-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-functions-monitoring-integration.mdx new file mode 100644 index 00000000000..a47979e9a1c --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-functions-monitoring-integration.mdx @@ -0,0 +1,81 @@ +--- +title: Google Cloud Functions monitoring Intégration +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'Read about our Google Cloud Functions integration: how to activate it and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +Notre [intégrationinfrastructure ](/docs/infrastructure/introduction-infra-monitoring)avec [Google Cloud Platform (GCP)](https://cloud.google.com/) inclut une solution qui transmet les données [Google Cloud Functions](https://cloud.google.com/functions/) à nos produits. Ce document explique comment activer l’intégration de GCP Cloud Functions et décrit les données qui peuvent être signalées. + +## Caractéristiques + +Le service Google Cloud Functions permet d'exécuter du code sans serveur. En utilisant l'[UI de Google](https://cloud.google.com/functions/docs/quickstarts), les développeurs peuvent créer de courts morceaux de code destinés à exécuter une fonction spécifique. La fonction peut alors répondre à un événement cloud sans avoir besoin de gérer un serveur d'application ou un environnement d'exécution. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## Fréquence des sondages [#polling] + +Notre intégration requête vos services GCP selon un intervalle d'interrogation, qui varie en fonction de l'intégration. + +* Fréquence d'interrogation pour GCP Cloud Functions : cinq minutes +* Résolution : un point de données par minute + +## Afficher et utiliser les données [#find-data] + +Après avoir activé l'intégration puis attendu quelques minutes (en fonction de la [fréquence d'interrogation](#polling)), les données apparaîtront dans l'UI. Pour [afficher et utiliser vos données](/docs/infrastructure/integrations/find-use-infrastructure-integration-data), y compris les liens vers vos et paramètres d'alerte, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP**, puis sélectionnez une intégration. + +## données métriques [#metrics] + +[Les données métriques](/docs/infrastructure/introduction-infra-monitoring#data-types) que nous recevons de votre intégration GCP Cloud Functions incluent : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut + + Description +
+ `function.Executions` + + Nombre de fonctions exécutées, par statut. +
+ `function.ExecutionTimeNanos` + + Temps d'exécution de chaque fonction, en nanosecondes. +
+ `function.UserMemoryBytes` + + mémoire utilisée pour chaque fonction, en octets. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-load-balancing-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-load-balancing-monitoring-integration.mdx new file mode 100644 index 00000000000..77d4c07bcf0 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-load-balancing-monitoring-integration.mdx @@ -0,0 +1,292 @@ +--- +title: Google Cloud Load Balancing monitoring Intégration +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic''s Google Cloud Load Balancing integration: how to activate it and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) avec [Google Cloud Platform (GCP)](https://cloud.google.com) inclut une intégration permettant de signaler les données [Google Cloud Load Balancing](https://cloud.google.com/load-balancing/) à New Relic. Ce document explique comment activer l'intégration GCP Cloud Load Balancing et décrit les données qui peuvent être signalées. + +## Caractéristiques + +Google Cloud Load Balancing est un service géré basé sur un logiciel permettant de distribuer le trafic dans une ou plusieurs régions. Il offre une mise à l'échelle automatique transparente et immédiate et prend en charge les derniers protocoles de distribution d'applications. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## Fréquence des sondages [#polling] + +L'intégration de New Relic interroge vos services GCP selon un intervalle d'interrogation, qui varie en fonction de l'intégration. La fréquence d'interrogation de Google Cloud Load Balancer est de cinq minutes. La résolution est de 1 point de données par minute. + +## Rechercher et utiliser des données [#find-data] + +Après avoir activé l'intégration et attendu quelques minutes (en fonction de la [fréquence d'interrogation](#polling)), les données apparaîtront dans l'UI de New Relic. Pour [rechercher et utiliser vos données](/docs/infrastructure/integrations/find-use-infrastructure-integration-data), y compris les liens vers vos et vos paramètres d'alerte, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP > (select an integration)**. + +## données métriques [#metrics] + +Pour afficher [les données métriques](/docs/telemetry-data-platform/understand-data/new-relic-data-types/#metrics) de votre intégration GCP Load Balancing dans New Relic, [créez une requête NRQL ](/docs/integrations/new-relic-integrations/getting-started/use-integration-data-new-relic-insights#nrql)pour [les événements](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `GcpHttpLoadBalancerSample`, `GcpTcpSslProxyLoadBalancerSample` et `GcpInternalLoadBalancerSample` et leur attribut associé. + +### Exemple d'équilibrage de charge HTTP Gcp [#gcp-http-load-balancer-sample] + +requête `GcpHttpLoadBalancerSample` événement dans New Relic pour afficher les données de l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut + + Description +
+ `https.BackendLatencies` + + Latence moyenne (en millisecondes) calculée à partir du moment où la requête a été envoyée par le proxy au backend jusqu'à ce que le proxy reçoive du backend le dernier octet de réponse. +
+ `https.BackendRequestBytes` + + Le nombre d'octets envoyés sous forme de requests depuis l'équilibreur de charge HTTP/S vers le backend. +
+ `https.BackendRequests` + + Le nombre de requests traitées par le backend de l'équilibreur de charge HTTP/S. +
+ `https.BackendResponseBytes` + + Le nombre d'octets envoyés en tant que réponses du backend (ou du cache) à l'équilibreur de charge HTTP/S. +
+ `https.FrontendTcpRtt` + + Moyenne du temps d'aller-retour (RTT) mesuré pour chaque connexion entre le client et le proxy. +
+ `https.RequestBytes` + + Le nombre d'octets envoyés sous forme de requests par les clients à l'équilibreur de charge HTTP/S. +
+ `https.Requests` + + Le nombre de requests traitées par l'équilibreur de charge HTTP/S. +
+ `https.ResponseBytes` + + Le nombre d'octets envoyés en tant que réponses de l'équilibreur de charge HTTP/S aux clients. +
+ `https.TotalLatencies` + + Moyenne de la latence (en millisecondes) calculée à partir du moment où la requête a été reçue par le proxy jusqu'à ce que le proxy reçoive un accusé de réception du client sur le dernier octet de réponse. +
+ +### Exemple d'équilibrage de charge du proxy GcpTcpSsl [#gcp-tcp-ssl-proxy-load-balancer-sample] + +requête `GcpTcpSslProxyLoadBalancerSample` événement dans New Relic pour afficher les données de l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut + + Description +
+ `tcpSslProxy.ClosedConnections` + + Nombre de connexions interrompues via un proxy TCP/SSL. +
+ `tcpSslProxy.EgressBytes` + + Nombre d'octets envoyés de la VM au client à l'aide d'un proxy. +
+ `tcpSslProxy.FrontendTcpRtt` + + Moyenne du RTT lissé (en millisecondes) mesuré par la stack TCP du proxy, chaque minute où les octets de la couche application passent du proxy au client. +
+ `tcpSslProxy.IngressBytes` + + Nombre d'octets envoyés du client à la VM à l'aide d'un proxy. +
+ `tcpSslProxy.NewConnections` + + Nombre de connexions créées via un proxy TCP/SSL. +
+ `tcpSslProxy.OpenConnections` + + Nombre actuel de connexions en attente via le proxy TCP/SSL. +
+ +### Exemple d'équilibrage de charge interne Gcp [#gcp-tcp-ssl-proxy-load-balancer-sample] + +requête `GcpInternalLoadBalancerSample` événement dans New Relic pour afficher les données de l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut + + Description +
+ `l3.internal.EgressBytes` + + Le nombre d'octets envoyés depuis le backend d'équilibrage de charge interne (ILB) vers le client (pour les flux TCP, il compte uniquement les octets sur le flux d'application). +
+ `l3.internal.EgressPackets` + + Le nombre de paquets envoyés depuis le backend ILB vers le client. +
+ `l3.internal.IngressBytes` + + Le nombre d'octets envoyés du client au backend ILB (pour les flux TCP, il compte uniquement les octets sur le flux d'application). +
+ `l3.internal.IngressPackets` + + Le nombre de paquets envoyés du client au backend ILB. +
+ `l3.internal.RttLatencies` + + Moyenne du RTT (en millisecondes) mesuré sur les connexions TCP pour les flux ILB. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-pubsub-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-pubsub-monitoring-integration.mdx new file mode 100644 index 00000000000..c69d81529e5 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-pubsub-monitoring-integration.mdx @@ -0,0 +1,474 @@ +--- +title: IntégrationGoogle Cloud Pub/Sub monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic''s Google Cloud Pub/Sub integration: how to activate it and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) avec [Google Cloud Platform (GCP)](https://cloud.google.com/) inclut une intégration permettant de signaler les données [Google Cloud Pub/Sub](https://cloud.google.com/pubsub/) à New Relic. Ce document explique comment activer l'intégration GCP Pub/Sub et décrit les données qui seront signalées. + +## Caractéristiques + +Dans le cadre de la Google Cloud [solution d'analyse](https://cloud.google.com/solutions/stream-analytics) de flux , le service Cloud Pub/Sub ingère et fournit des flux d'événements pour un traitement et une analyse rapides des données. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## Fréquence des sondages [#polling] + +L'intégration de New Relic interroge vos services GCP selon un intervalle d'interrogation, qui varie en fonction de l'intégration. La fréquence d'interrogation pour Google Cloud Pub/Sub est de cinq minutes. La résolution est de 1 point de données par minute. + +## Rechercher et utiliser des données [#find-data] + +Après avoir activé l'intégration et attendu quelques minutes (en fonction de la [fréquence d'interrogation](#polling)), les données apparaîtront dans l'UI de New Relic. Pour [rechercher et utiliser vos données](/docs/infrastructure/integrations/find-use-infrastructure-integration-data), y compris les liens vers vos et vos paramètres d'alerte, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP > (select an integration)**. + +## données métriques [#metrics] + +Les sujets Pub/Sub sont des entités nommées qui représentent des flux de messages, et les abonnements sont des entités nommées qui représentent des destinations de messages sur un sujet particulier. + +Pour afficher [les données métriques](/docs/telemetry-data-platform/understand-data/new-relic-data-types/#metrics) de votre intégration GCP Pub/Sub dans New Relic, [créez une requête NRQL ](/docs/integrations/new-relic-integrations/getting-started/use-integration-data-new-relic-insights#nrql)pour [l'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `GcpPubSubTopicSample` et `GcpPubSubSubscriptionSample` et leur attribut associé. + +### Exemple de sous-sujet GcpPub [#gcp-app-engine-service-sample] + +requête `GcpPubSubTopicSample` événement dans New Relic pour afficher les données de l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut + + Description +
+ `topic.ByteCost` + + Coût des opérations, mesuré en octets. Ceci est utilisé pour mesurer l'utilisation des quotas. +
+ `topic.ConfigUpdates` + + Nombre cumulé de modifications de configuration, regroupées par type d'opération et résultat. +
+ `topic.MessageSizes` + + Répartition des tailles des messages publiés (en octets). +
+ `topic.NumRetainedAckedMessagesByRegion` + + Nombre de messages reconnus conservés dans une rubrique, répartis par région Cloud. +
+ `topic.NumUnackedMessagesByRegion` + + Nombre de messages non reconnus dans une rubrique, répartis par région Cloud. +
+ `topic.OldestRetainedAckedMessageAgeByRegion` + + Âge (en secondes) du message reconnu le plus ancien conservé dans une rubrique, réparti par région Cloud. +
+ `topic.OldestUnackedMessageAgeByRegion` + + Âge (en secondes) du message non reconnu le plus ancien dans une rubrique, réparti par région Cloud. +
+ `topic.RetainedAckedBytesByRegion` + + Taille totale en octets des messages reconnus conservés dans une rubrique, répartis par région Cloud. +
+ `topic.SendMessageOperation` + + Nombre cumulé d'opérations de publication de messages. +
+ `topic.SendRequest` + + Nombre cumulé de requests de publication. +
+ `topic.UnackedBytesByRegion` + + Taille totale en octets des messages non reconnus dans une rubrique, répartie par région Cloud. +
+ +### Exemple d'abonnement GcpPubSub [#gcp-app-engine-service-sample] + +requête `GcpPubSubSubscriptionSample` événement dans New Relic pour afficher les données de l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut + + Description +
+ `subscription.BacklogBytes` + + Taille totale en octets des messages non reconnus (alias messages en attente) dans un abonnement. +
+ `subscription.ByteCost` + + Coût cumulé des opérations, mesuré en octets. Ceci est utilisé pour mesurer l'utilisation des quotas. +
+ `subscription.ConfigUpdates` + + Nombre cumulé de modifications de configuration pour chaque abonnement, regroupées par type d'opération et résultat. +
+ `subscription.ModAckDeadlineMessageOperation` + + Nombre cumulé d'opérations de message ModifyAckDeadline, regroupées par résultat. +
+ `subscription.ModAckDeadlineRequest` + + Nombre cumulé de requests ModifyAckDeadline, regroupées par résultat. +
+ `subscription.NumOutstandingMessages` + + Nombre de messages livrés au point de terminaison push d'un abonnement, mais pas encore reconnus. +
+ `subscription.NumRetainedAckedMessages` + + Nombre de messages reconnus conservés dans un abonnement. +
+ `subscription.NumRetainedAckedMessagesByRegion` + + Nombre de messages reconnus conservés dans un abonnement, répartis par région Cloud. +
+ `subscription.NumUnackedMessagesByRegion` + + Nombre de messages non reconnus dans un abonnement, répartis par région Cloud. +
+ `subscription.NumUndeliveredMessages` + + Nombre de messages non reconnus (aka messages en attente) dans un abonnement. +
+ `subscription.OldestRetainedAckedMessageAge` + + Âge (en secondes) du message reconnu le plus ancien conservé dans un abonnement. +
+ `subscription.OldestRetainedAckedMessageAgeByRegion` + + Âge (en secondes) du message reconnu le plus ancien conservé dans un abonnement, réparti par région Cloud. +
+ `subscription.OldestUnackedMessageAge` + + Âge (en secondes) du plus ancien message non reconnu (aka message d'arriéré) dans un abonnement. +
+ `subscription.OldestUnackedMessageAgeByRegion` + + Âge (en secondes) du message non reconnu le plus ancien dans un abonnement, réparti par région Cloud. +
+ `subscription.PullAckMessageOperation` + + Nombre cumulé d'opérations de messages d'accusé de réception, regroupées par résultat. +
+ `subscription.PullAckRequest` + + Nombre cumulé de requests d'accusé de réception, regroupées par résultat. +
+ `subscription.PullMessageOperation` + + Nombre cumulé d'opérations d'extraction de messages, regroupées par résultat. +
+ `subscription.PullRequest` + + Nombre cumulé de demandes de tirage, regroupées par résultat. +
+ `subscription.PushRequest` + + Nombre cumulé de tentatives de push, regroupées par résultat. Contrairement aux pulls, l'implémentation du serveur push ne regroupe pas les messages utilisateur, donc chaque demande ne contient qu'un seul message utilisateur. Le serveur push réessaye en cas d'erreur, de sorte qu'un message utilisateur donné peut apparaître plusieurs fois. +
+ `subscription.PushRequestLatencies` + + Répartition de la latence des requêtes push (en microsecondes), regroupée par résultat. +
+ `subscription.RetainedAckedBytes` + + Taille totale en octets des messages reconnus conservés dans un abonnement. +
+ `subscription.RetainedAckedBytesByRegion` + + Taille totale en octets des messages reconnus conservés dans un abonnement, répartie par région Cloud. +
+ `subscription.StreamingPullAckMessageOperation` + + Nombre cumulé d'opérations de messages d'accusé de réception StreamingPull, regroupées par résultat. +
+ `subscription.StreamingPullAckRequest` + + Nombre cumulé de demandes de tirage en streaming avec des identifiants d'accusé de réception non vides, regroupées par résultat. +
+ `subscription.StreamingPullMessageOperation` + + Nombre cumulé d'opérations d'extraction de messages en streaming, regroupées par résultat. +
+ `subscription.StreamingPullModAckDeadlineMessageOperation` + + Nombre cumulé d'opérations StreamingPull ModifyAckDeadline, regroupées par résultat. +
+ `subscription.StreamingPullModAckDeadlineRequest` + + Nombre cumulé de demandes de tirage en streaming avec des champs ModifyAckDeadline non vides, regroupés par résultat. +
+ `subscription.StreamingPullResponse` + + Nombre cumulé de réponses d'extraction en continu, regroupées par résultat. +
+ `subscription.UnackedBytesByRegion` + + Taille totale en octets des messages non reconnus dans un abonnement, répartie par région Cloud. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-router-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-router-monitoring-integration.mdx new file mode 100644 index 00000000000..845c0fa30fb --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-router-monitoring-integration.mdx @@ -0,0 +1,450 @@ +--- +title: IntégrationGoogle Cloud Router monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic Google Cloud Router integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler les données de votre routeur GCP à nos produits. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration du routeur GCP : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez une intégration. + +Les données sont jointes au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Routeur Cloud + + `GcpRouterCloudRouterSample` + + `GcpRouterCloudRouter` +
+ Passerelle Nat + + `GcpRouterNatGatewaySample` + + `GcpRouterNatGateway` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données du routeur GCP pour CloudRouter et NatGateway. + +### Routeur CloudDonnées du routeur + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `BestReceivedRoutes` + + Compter + + Nombre actuel de meilleurs itinéraires reçus par le routeur. +
+ `bfd.control.ReceiveIntervals` + + Millisecondes + + Les paquets de contrôle BFD reçoivent des intervalles. +
+ `bfd.control.ReceivedPackets` + + Compter + + Nombre de paquets de contrôle reçus de cette session BFD. +
+ `bfd.control.RejectedPackets` + + Compter + + Nombre de paquets de contrôle rejetés, à partir de cette session BFD. +
+ `bfd.control.TransmitIntervals` + + Millisecondes + + Les paquets de contrôle BFD transmettent des intervalles. +
+ `bfd.control.TransmittedPackets` + + Compter + + Nombre de paquets de contrôle transmis à partir de cette session BFD. +
+ `bfd.SessionUp` + + Compter + + Indicateur de réussite de l'établissement d'une session BFD. +
+ `bgp.ReceivedRoutes` + + Compter + + Nombre actuel de routes reçues sur une session bgp. +
+ `bgp.SentRoutes` + + Compter + + Nombre actuel de routes envoyées sur une session bgp. +
+ `bgp.SessionUp` + + Compter + + Indicateur d'établissement réussi d'une session BGP. +
+ `BgpSessionsDown` + + Compter + + Nombre de sessions BGP sur le routeur qui sont en panne. +
+ `BgpSessionsUp` + + Compter + + Nombre de sessions BGP actives sur le routeur. +
+ `RouterUp` + + Compter + + État du routeur, en marche ou en arrêt. +
+ `SentRoutes` + + Compter + + Nombre actuel de routes envoyées par le routeur. +
+ +### Données de la passerelle NatGateway du routeur + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `nat.AllocatedPorts` + + Compter + + Nombre de ports alloués à toutes les machines virtuelles par la passerelle NAT. +
+ `nat.ClosedConnections` + + Compter + + Nombre de connexions fermées sur la passerelle NAT. +
+ `nat.DroppedReceivedPackets` + + Compter + + Nombre de paquets reçus abandonnés par la passerelle NAT. +
+ `nat.NewConnections` + + Compter + + Nombre de nouvelles connexions créées sur la passerelle NAT. +
+ `nat.PortUsage` + + Compter + + Nombre maximal de connexions d'une VM à un seul point de terminaison Internet (IP : port). +
+ `nat.ReceivedBytes` + + Octets + + Nombre d'octets reçus (Internet -> VM) via la passerelle NAT. +
+ `nat.ReceivedPackets` + + Compter + + Nombre de paquets reçus (Internet -> VMs) via la passerelle NAT. +
+ `nat.SentBytes` + + Octets + + Nombre d'octets envoyés (VM -> Internet) via la passerelle NAT. +
+ `nat.SentPackets` + + Compter + + Nombre de paquets envoyés (VM -> Internet) via la passerelle NAT. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-run-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-run-monitoring-integration.mdx new file mode 100644 index 00000000000..340386667f6 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-run-monitoring-integration.mdx @@ -0,0 +1,162 @@ +--- +title: IntégrationGoogle Cloud Run monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic Google Cloud Datastore integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données GCP Run à nos produits. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration GCP Run : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez une intégration. + +Les données sont jointes au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Révision + + `GcpRunRevisionSample` + + `GcpRunRevision` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données GCP Run pour la révision. + +### Exécuter les données de révision + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `container.BillableInstanceTime` + + Secondes + + Temps facturable agrégé à partir de toutes les instances de conteneur de la révision. Pour une instance de conteneur donnée, le temps facturable se produit lorsque l'instance de conteneur démarre ou qu'au moins une demande est en cours de traitement. Le temps facturable est arrondi aux 100 millisecondes les plus proches. Exemples : si une révision avec 2 instances de conteneur a diffusé du trafic en continu au cours de la dernière minute, la valeur est de 2 s/s avec l'aligneur « rate » par défaut. Si une seule requête d'une durée de 30 ms a été reçue par une révision au cours de la dernière minute, elle est arrondie à 100 ms et ramenée en moyenne à 1,7 ms/s sur la minute avec l'aligneur « taux » par défaut. +
+ `container.cpu.AllocationTime` + + Secondes + + Allocation du processeur du conteneur de la révision en secondes. +
+ `container.memory.AllocationTime` + + Autre + + Allocation de mémoire du conteneur de la révision en gigaoctets-secondes. +
+ `Request` + + Compter + + Nombre de requests atteignant la révision. Exclut requests qui n'atteignent pas votre instance de conteneur (par exemple, requests non autorisées ou lorsque le nombre maximal d'instances est atteint). +
+ `RequestLatencies` + + Millisecondes + + Répartition de la latence des requêtes en millisecondes atteignant la révision. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-spanner-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-spanner-monitoring-integration.mdx new file mode 100644 index 00000000000..5bdf3318bef --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-spanner-monitoring-integration.mdx @@ -0,0 +1,622 @@ +--- +title: IntégrationGoogle Cloud Spanner monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic''s Google Cloud Spanner integration: how to activate it and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) avec [Google Cloud Platform (GCP)](https://cloud.google.com) inclut une intégration permettant de signaler les données de [Google Cloud Spanner](https://cloud.google.com/spanner/) à New Relic. Ce document explique comment activer l'intégration GCP Cloud Spanner et décrit les données qui peuvent être signalées. + +## Caractéristiques [#features] + +Le service Google Cloud Spanner est un service de bases de données relationnelles distribué à l'échelle mondiale et conçu pour le cloud. À l'aide de la [console Google Spanner](https://cloud.google.com/spanner/docs/quickstart-console), les développeurs peuvent créer une instance Cloud Spanner, ajouter des schémas, écrire et modifier des données et exécuter des requêtes. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## Fréquence des sondages [#polling] + +L'intégration de New Relic interroge vos services GCP selon un intervalle d'interrogation, qui varie en fonction de l'intégration. La fréquence d'interrogation de Google Cloud Spanner est de cinq minutes. La résolution est de 1 point de données par minute. + +## Rechercher et utiliser des données [#find-data] + +Après avoir activé l'intégration et attendu quelques minutes (en fonction de la [fréquence d'interrogation](#polling)), les données apparaîtront dans l'UI de New Relic. Pour [rechercher et utiliser vos données](/docs/infrastructure/integrations/find-use-infrastructure-integration-data), y compris les liens vers vos et vos paramètres d'alerte, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP > (select an integration)**. + +## données métriques [#metrics] + +Pour afficher [les données métriques](/docs/integrations/new-relic-integrations/getting-started/#metric) de votre intégration GCP Spanner dans New Relic, [créez une requête NRQL ](/docs/integrations/new-relic-integrations/getting-started/use-integration-data-new-relic-insights#nrql)pour [les événements](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `GcpSpannerInstanceSample` et `GcpSpannerDatabaseSample` et leur attribut associé. + +### Exemple d'instance GcpSpanner [#gcp-spanner-instance-sample] + +requête `GcpSpannerInstanceSample` événement dans New Relic pour afficher les données de l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut + + Description +
+ `instance.autoscaling.HighPriorityCpuUtilizationTarget` + + Cible d'utilisation du processeur hautement prioritaire utilisée pour la mise à l'échelle automatique. +
+ `instance.autoscaling.MaxNodes` + + Nombre maximal de nœuds que l'autoscaler est autorisé à allouer à l'instance. +
+ `instance.autoscaling.MaxProcessingUnits` + + Nombre maximal d'unités de traitement que l'autoscaler est autorisé à allouer à l'instance. +
+ `instance.autoscaling.MinNodes` + + Nombre minimum de nœuds que l'autoscaler est autorisé à allouer à l'instance. +
+ `instance.autoscaling.MinProcessingUnits` + + Nombre minimum d'unités de traitement que l'autoscaler est autorisé à allouer à l'instance. +
+ `instance.autoscaling.StorageUtilizationTarget` + + Cible d'utilisation du stockage utilisée pour la mise à l'échelle automatique. +
+ `instance.backup.UsedBytes` + + Stockage de sauvegarde utilisé en octets. +
+ `instance.cpu.SmoothedUtilization` + + Utilisation lissée du processeur provisionné pendant 24 heures. Les valeurs sont généralement des nombres compris entre 0,0 et 1,0 (mais peuvent dépasser 1,0), les graphiques affichent les valeurs sous forme de pourcentage compris entre 0 % et 100 % (ou plus). +
+ `instance.cpu.Utilization` + + Pourcentage d'utilisation du processeur provisionné. Les valeurs sont généralement des nombres compris entre 0,0 et 1,0 (mais peuvent dépasser 1,0), les graphiques affichent les valeurs sous forme de pourcentage compris entre 0 % et 100 % (ou plus). +
+ `instance.cpu.UtilizationByOperationType` + + Pourcentage d'utilisation du processeur provisionné, par type d'opération. Les valeurs sont généralement des nombres compris entre 0,0 et 1,0 (mais peuvent dépasser 1,0), les graphiques affichent les valeurs sous forme de pourcentage compris entre 0 % et 100 % (ou plus). Actuellement, il n'inclut pas l'utilisation du processeur pour les tâches système. +
+ `instance.cpu.UtilizationByPriority` + + Pourcentage d'utilisation du processeur provisionné, par priorité. Les valeurs sont généralement des nombres compris entre 0,0 et 1,0 (mais peuvent dépasser 1,0), les graphiques affichent les valeurs sous forme de pourcentage compris entre 0 % et 100 % (ou plus). +
+ `instance.dataBoost.ProcessingUnitSeconds` + + Nombre total d'unités de traitement utilisées pour les opérations DataBoost. +
+ `instance.LeaderPercentageByRegion` + + Pourcentage de leaders par région cloud. Les valeurs sont généralement des nombres compris entre 0,0 et 1,0, les graphiques affichent les valeurs sous forme de pourcentage compris entre 0 % et 100 %. +
+ `instance.nodes` + + Nombre total de nœuds. +
+ `instance.ProcessingUnits` + + Nombre total d'unités de traitement. +
+ `instance.sessions` + + Nombre de sessions en cours d'utilisation. +
+ `instance.storage.LimitBytes` + + Limite de stockage par instance en octets. +
+ `instance.storage.LimitBytesPerProcessingUnit` + + Limite de stockage par unité de traitement en octets. +
+ `instance.storage.UsedBytes` + + Stockage utilisé en octets. +
+ `instance.storage.Utilization` + + Stockage utilisé comme fraction de la limite de stockage. +
+ +### Exemple de base de données GcpSpanner [#gcp-spanner-database-sample] + +requête `GcpSpannerDatabaseSample` événement dans New Relic pour afficher les données de l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut + + Description +
+ `api.apiRequests` + + requests API Cloud Spanner. +
+ `api.ReceivedBytes` + + Octets de demande non compressés reçus par Cloud Spanner. +
+ `api.Requests` + + Taux de requests API Cloud Spanner. +
+ `api.RequestLatencies` + + Répartition de la latence des requêtes serveur pour une base de données. Cela inclut la latence du traitement des requêtes dans le backend et la couche API de Cloud Spanner. Il n'inclut pas les frais de réseau ou de proxy inverse entre les clients et les serveurs. +
+ `api.RequestLatenciesByTransactionType` + + Répartition de la latence des requêtes serveur pour une base de données. Cela inclut la latence du traitement des requêtes dans le backend et la couche API de Cloud Spanner. Il n'inclut pas les frais de réseau ou de proxy inverse entre les clients et les serveurs. +
+ `api.SentBytes` + + Octets de réponse non compressés envoyés par Cloud Spanner. +
+ `lockStat.total.LockWaitTime` + + Temps d'attente total de verrouillage pour les conflits de verrouillage enregistrés pour l'ensemble de la base de données. +
+ `queries` + + Nombre de requêtes par nom de base de données, statut, type de requête et version de l'optimiseur utilisée. +
+ `queryStat.total.BytesReturned` + + Nombre d'octets de données renvoyés par la requête, hors frais généraux de codage de transmission. +
+ `queryStat.total.CpuTime` + + Nombre de secondes de temps CPU que Cloud Spanner a consacré aux opérations pour exécuter la requête. +
+ `queryStat.total.Executions` + + Nombre de fois où Cloud Spanner a vu une requête pendant l'intervalle. +
+ `queryStat.total.FailedExecutions` + + Nombre de fois où la requête a échoué pendant l'intervalle. +
+ `queryStat.total.QueryLatencies` + + Distribution de la durée totale, en secondes, des exécutions de requêtes au sein de la base de données. +
+ `queryStat.total.RemoteServiceCalls` + + Nombre d'appels de service à distance. +
+ `queryStat.total.RemoteServiceCallsLatencies` + + latence des appels de service à distance. +
+ `queryStat.total.RemoteServiceNetworkBytesSizes` + + Octets réseau échangés avec un service distant. +
+ `queryStat.total.RemoteServiceProcessedRows` + + Nombre de lignes traitées par un service distant. +
+ `queryStat.total.RemoteServiceProcessedRowsLatencies` + + latence des lignes traitées par un service distant. +
+ `queryStat.total.ReturnedRows` + + Nombre de lignes renvoyées par la requête. +
+ `queryStat.total.ScannedRows` + + Nombre de lignes analysées par la requête, à l'exclusion des valeurs supprimées. +
+ `readStat.total.BytesReturned` + + Nombre total d'octets de données renvoyés par les lectures, hors frais généraux de codage de transmission. +
+ `readStat.total.ClientWaitTime` + + Nombre de secondes passées à attendre en raison de la limitation. +
+ `readStat.total.CpuTime` + + Nombre de secondes de temps CPU que Cloud Spanner a passé à exécuter les lectures, hors temps de prélecture du processeur et autres frais généraux. +
+ `readStat.total.Executions` + + Nombre de fois que Cloud Spanner a exécuté les formes lues pendant l'intervalle. +
+ `readStat.total.LeaderRefreshDelay` + + Nombre de secondes consacrées à la coordination des lectures sur plusieurs instances dans des configurations multirégionales. +
+ `readStat.total.LockingDelays` + + Répartition du temps total en secondes passé à attendre en raison du verrouillage. +
+ `readStat.total.ReturnedRows` + + Nombre de lignes renvoyées par les lectures. +
+ `rowDeletionPolicy.DeletedRows` + + Nombre de lignes supprimées par la politique depuis le dernier échantillon. +
+ `rowDeletionPolicy.ProcessedWatermarkAge` + + Temps entre maintenant et l'horodatage de lecture de la dernière exécution réussie. Une exécution se produit lorsque la tâche en arrière-plan supprime les données éligibles par lots et réussit même lorsqu'il existe des lignes qui ne peuvent pas être supprimées. +
+ `rowDeletionPolicy.UndeletableRows` + + Nombre de lignes dans toutes les tables de la base de données qui ne peuvent pas être supprimées. Une ligne ne peut pas être supprimée si, par exemple, elle comporte tellement de lignes enfants qu'une suppression dépasserait la limite de transaction. +
+ `transactionStat.total.BytesWritten` + + Nombre d'octets écrits par les transactions. +
+ `transactionStat.total.CommitAttempts` + + Nombre de tentatives de validation pour les transactions. +
+ `transactionStat.total.CommitRetries` + + Nombre de tentatives de validation qui sont des tentatives de transaction précédemment abandonnées. +
+ `transactionStat.total.Participants` + + Répartition du nombre total de participants à chaque tentative de validation. +
+ `transactionStat.total.TransactionLatencies` + + Répartition du nombre total de secondes nécessaires à la validation ou à l'abandon de la première opération de transaction. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-sql-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-sql-monitoring-integration.mdx new file mode 100644 index 00000000000..d3230937ab5 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-sql-monitoring-integration.mdx @@ -0,0 +1,418 @@ +--- +title: IntégrationGoogle Cloud SQL monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic''s Google Cloud SQL monitoring integration: how to activate it and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) avec [Google Cloud Platform (GCP)](https://cloud.google.com/) inclut une intégration permettant de signaler les données [Google Cloud SQL](https://cloud.google.com/sql/docs/) à New Relic. Ce document explique comment activer l'intégration GCP SQL et décrit les données qui peuvent être signalées. + +## Caractéristiques + +Cloud SQL est un service de bases de données entièrement géré qui est utilisé pour configurer, maintenir, gérer et administrer les bases de données MySQL et PostgreSQL dans le cloud. Cloud SQL offre des performances et une évolutivité élevées et est accessible à partir de la plupart des applications. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## Fréquence des sondages [#polling] + +L'intégration de New Relic interroge vos services GCP selon un intervalle d'interrogation, qui varie en fonction de l'intégration. La fréquence d'interrogation de Google Cloud SQL est de cinq minutes. La résolution est de 1 point de données par minute. + +## Rechercher et utiliser des données [#find-data] + +Après avoir activé l'intégration et attendu quelques minutes (en fonction de la [fréquence d'interrogation](#polling)), les données apparaîtront dans l'UI de New Relic. Pour [rechercher et utiliser vos données](/docs/infrastructure/integrations/find-use-infrastructure-integration-data), y compris les liens vers vos et vos paramètres d'alerte, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP > (select an integration)**. + +## données métriques [#metrics] + +Pour afficher [les données métriques](/docs/telemetry-data-platform/understand-data/new-relic-data-types/#metrics) de votre intégration GCP SQL dans New Relic, [créez une requête NRQL ](/docs/integrations/new-relic-integrations/getting-started/use-integration-data-new-relic-insights#nrql)pour [l'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `GcpCloudSqlSample` et son attribut associé. + +### Exemple de GcpCloudSql [#gcp-app-cloud-sql-sample] + +requête `GcpCloudSqlSample` événement dans New Relic pour afficher les données de l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut + + Description +
+ `database.AutoFailoverRequestCount` + + Delta du nombre de de instance basculement automatique requests. +
+ `database.AvailableForFailover` + + Ceci est supérieur à `0` si l'opération de basculement est disponible sur l'instance. +
+ `database.cpu.ReservedCores` + + Nombre de cœurs réservés à la base de données. +
+ `database.cpu.UsageTime` + + Temps d'utilisation cumulé du processeur en secondes. +
+ `database.cpu.Utilization` + + La fraction du CPU réservé qui est actuellement utilisée. +
+ `database.disk.BytesUsed` + + Utilisation des données en octets. +
+ `database.disk.Quota` + + Taille maximale du disque de données en octets. +
+ `database.disk.ReadOps` + + Nombre delta d'opérations d'E/S de lecture de disque de données. +
+ `database.disk.Utilization` + + La fraction du quota de disque actuellement utilisée. +
+ `database.disk.WriteOps` + + Nombre delta d'opérations d'E/S d'écriture sur disque. +
+ `database.memory.Quota` + + Taille maximale de la RAM en octets. +
+ `database.memory.Usage` + + Utilisation de la RAM en octets. +
+ `database.memory.Utilization` + + La fraction du quota de mémoire actuellement utilisée. +
+ `database.mysql.InnodbBufferPoolPagesDirty` + + La fraction du quota de mémoire actuellement utilisée. +
+ `database.mysql.InnodbBufferPoolPagesFree` + + Nombre de pages inutilisées dans le tampon du pool InnoDB . +
+ `database.mysql.InnodbBufferPoolPagesTotal` + + Nombre total de pages dans le tampon du pool InnoDB . +
+ `database.mysql.InnodbDataFsyncs` + + Nombre delta d'appels InnoDB fsync(). +
+ `database.mysql.InnodbOsLogFsyncs` + + Nombre delta d'appels InnoDB fsync() au fichier de log. +
+ `database.mysql.InnodbPagesRead` + + Nombre delta de pages InnoDB lues. +
+ `database.mysql.InnodbPagesWritten` + + Nombre delta de pages InnoDB écrites. +
+ `database.mysql.Queries` + + Nombre delta d'instructions exécutées par le serveur. +
+ `database.mysql.Questions` + + Nombre delta d'instructions exécutées par le serveur envoyées par le client. +
+ `database.mysql.ReceivedBytesCount` + + Nombre delta d'octets reçus par le processus MySQL. +
+ `database.mysql.replication.SecondsBehindMaster` + + Nombre de secondes pendant lesquelles la réplique de lecture est en retard sur son maître (approximation). +
+ `database.mysql.replication.SlaveIoRunning` + + Indique si le thread I/O pour la lecture du log binaire du maître est en cours d'exécution. Les valeurs possibles sont `Yes`, `No` et `Connecting`. +
+ `database.mysql.replication.SlaveSqlRunning` + + Indique si le thread I/O pour la lecture du log binaire du maître est en cours d'exécution. Les valeurs possibles sont `Yes`, `No` et `Connecting`. +
+ `database.mysql.SentBytesCount` + + Indique si le thread I/O pour la lecture du log binaire du maître est en cours d'exécution. Les valeurs possibles sont `Yes`, `No` et `Connecting`. +
+ `database.network.Connections` + + Nombre de connexions à l'instance Cloud SQL MySQL. +
+ `database.network.ReceivedBytesCount` + + Nombre delta d'octets reçus via le réseau. +
+ `database.network.SentBytesCount` + + Nombre delta d'octets envoyés via le réseau. +
+ `database.postgresql.NumBackends` + + Nombre de connexions à l'instance Cloud SQL PostgreSQL. +
+ `database.postgresql.replication.ReplicaByteLag` + + délai de réplication en octets. Signalé par le maître par réplique. +
+ `database.postgresql.TransactionCount` + + Nombre delta de transactions. +
+ `database.State` + + L'état de service actuel de l'instance Cloud SQL. Cela peut être l'un des suivants : + + * `RUNNABLE`: L'instance est en cours d'exécution ou est prête à être exécutée lors de l'accès. + * `SUSPENDED`:L'instance n'est pas disponible, par exemple en raison de problèmes de facturation. + * `PENDING_CREATE`: L'instance est en cours de création. + * `MAINTENANCE`:L'instance est hors service pour maintenance. + * `UNKNOWN_STATE`:L'état de l'instance est inconnu. +
+ `database.Up` + + Indique si le serveur est opérationnel ou non. Les instances à la demande sont arrêtées si aucune connexion n'est établie pendant une durée suffisante. +
+ `database.Uptime` + + Nombre delta du temps en secondes pendant lequel l'instance a été exécutée. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-storage-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-storage-monitoring-integration.mdx new file mode 100644 index 00000000000..98a8675529a --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-storage-monitoring-integration.mdx @@ -0,0 +1,89 @@ +--- +title: IntégrationGoogle Cloud Storage monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic''s Google Cloud Storage integration: how to activate it and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +New Relic propose une [intégration](/docs/infrastructure/introduction-infra-monitoring) permettant de signaler vos données Google Cloud Storage à New Relic. Découvrez comment [connecter cette intégration à monitoring de infrastructure](#connect) et aux [données métriques](#metrics) que New Relic rapporte pour cette intégration. + +## Caractéristiques + +Google Cloud Storage est un service Google Cloud Platform que vous pouvez utiliser pour diffuser du contenu de site Web, pour stocker des données à des fins d'archivage et de reprise après sinistre, et pour distribuer des objets de données via un téléchargement direct. Avec l'intégration de Google Cloud Storage, vous pouvez accéder à ces fonctionnalités : + +* Affichez des graphiques et des informations sur les données que vous stockez et récupérez à partir de Google Cloud Storage. +* [Créez des requêtes et des graphiques personnalisés](/docs/using-new-relic/data/understand-data/query-new-relic-data) à partir [de données](#metrics) capturées automatiquement. +* Définissez [des alertes](/docs/infrastructure/new-relic-infrastructure/infrastructure-alert-conditions/infrastructure-alerts-add-edit-or-view-host-alert-information#integration) sur vos données Google Cloud Storage directement depuis la page d'intégration. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## Fréquence des sondages [#polling] + +New Relic interroge vos services Google Cloud Storage sur la base d'un intervalle d'interrogation de 5 minutes. + +## Rechercher et utiliser des données [#find-data] + +Après avoir connecté l'intégration à New Relic et attendu quelques minutes, les données apparaîtront dans l'UI de New Relic. Pour [rechercher et utiliser les données d'intégration](/docs/telemetry-data-platform/understand-data/new-relic-data-types/), y compris vosde bord et vos paramètres d'alerte, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP > Google Cloud Storage**. + +Pour créer un dashboard personnalisé pour l'intégration, [créez une requête](/docs/integrations/new-relic-integrations/getting-started/use-integration-data-new-relic-insights) pour le type d'événement `GcpStorageBucketSample` avec la valeur du fournisseur `GcpStorageBucket`. + +## données métriques [#metrics] + +L'intégration rapporte [des données métriques](/docs/telemetry-data-platform/understand-data/new-relic-data-types/#metrics) pour toutes les valeurs de `method` et `response_code`: + +* `response_code`: Le code de réponse des requests. +* `method`: Le nom de la méthode API appelée. + +Les données métriques que New Relic reçoit de votre intégration Google Cloud Storage incluent : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `api.Requests` + + Nombre delta d'appel d'API. +
+ `network.ReceivedBytes` + + Nombre delta d'octets reçus sur le réseau. +
+ `network.SentBytes` + + Nombre delta d'octets envoyés sur le réseau. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-compute-engine-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-compute-engine-monitoring-integration.mdx new file mode 100644 index 00000000000..8d09595faa2 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-compute-engine-monitoring-integration.mdx @@ -0,0 +1,139 @@ +--- +title: Google calcule l'intégration monitoring du moteur +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +freshnessValidatedDate: never +translationType: machine +--- + +Vous pouvez utiliser l'intégration du moteur de calcul de New Relic pour obtenir une vue complète et en temps réel des performances et de l'état de votre hôte. + +Notre intégration avec [Google calculer Engine](https://cloud.google.com/compute) rapporte les métadonnées des instances (machines virtuelles) hébergées sur infrastructure de Google. Vous pouvez monitorer et alerter sur les données de votre instance GCP à l'aide [monitoring d'infrastructureNew Relic](/docs/infrastructure), et vous pouvez créer des requêtes et des graphiques personnalisés dans New Relic. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + + + Vous devez installer l’agent d’infrastructure sur chaque hôte GCE pour voir [les métriques](/docs/infrastructure/manage-your-data/data-instrumentation/default-infrastructure-monitoring-data/#infrastructure-events) de cet hôte. La connexion de vos projets Google Cloud permet à New Relic d'accéder aux métadonnées GCE, telles que la région, le type et la balise. + + +## Fréquence des sondages [#polling] + +New Relic interroge vos services GCP selon un intervalle d'interrogation, qui varie en fonction de l'intégration. L'intervalle d'interrogation pour l'intégration de Google calculer Engine est de 5 minutes. + +## Rechercher et utiliser des données [#find-data] + +Après avoir activé l'intégration et attendu quelques minutes (en fonction de la [fréquence d'interrogation](#polling)), les données apparaîtront dans l'UI de New Relic. Pour [rechercher et utiliser vos données](/docs/infrastructure/integrations/find-use-infrastructure-integration-data), y compris les liens vers vos et vos paramètres d'alerte, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP > (select an integration)**. + +## données métriques [#metrics] + +[Les données métriques](/docs/infrastructure/introduction-infra-monitoring#data-types) que New Relic reçoit de votre intégration GCP Calcul Engine incluent : + +### Exemple de machine virtuelle Gcp [#GcpVirtualMachineSample] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `firewall.DroppedBytes` + + Nombre delta d'octets entrants abandonnés par le pare-feu. +
+ `firewall.DroppedPackets` + + Nombre delta de paquets entrants abandonnés par le pare-feu. +
+ `instance.cpu.ReservedCores` + + Nombre total de cœurs réservés sur l'hôte de l'instance. +
+ +### Exemple de disque de machine virtuelle Gcp [#GcpVirtualMachineDiskSample] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `instance.disk.ThrottledReadBytes` + + Nombre delta d'octets dans les opérations de lecture limitées. +
+ `instance.disk.ThrottledReadOps` + + Nombre delta d'opérations de lecture limitées. +
+ `instance.disk.ThrottledWriteBytes` + + Nombre delta d'octets dans les opérations d'écriture limitées. +
+ `instance.disk.ThrottledWriteOps` + + Nombre delta d'opérations d'écriture limitées. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-datastore-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-datastore-monitoring-integration.mdx new file mode 100644 index 00000000000..07a93a04a41 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-datastore-monitoring-integration.mdx @@ -0,0 +1,148 @@ +--- +title: Intégration desGoogle Cloud banques de données monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic Google Cloud Datastore integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler les données de votre magasin de données GCP à nos produits. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration de la banque de données GCP : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez une intégration. + +Les données sont jointes au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Demande + + `GcpDatastoreRequestSample` + + `GcpDatastoreRequest` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données du magasin de données GCP pour Request. + +### magasin de données Demande de données + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `api.Requests` + + Compter + + Nombre d'appels d'API du magasin de données. +
+ `entity.ReadSizes` + + Octets + + Répartition des tailles des entités lues, regroupées par type. +
+ `entity.WriteSizes` + + Octets + + Répartition des tailles des entités écrites, regroupées par op. +
+ `index.Writes` + + Compter + + Nombre d'écritures d'index de banque de données. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-direct-interconnect-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-direct-interconnect-monitoring-integration.mdx new file mode 100644 index 00000000000..48a6383cc32 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-direct-interconnect-monitoring-integration.mdx @@ -0,0 +1,338 @@ +--- +title: Intégration monitoring Google Direct Interconnect +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic Google Cloud Datastore integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données d'interconnexion GCP à nos produits. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration de GCP Interconnect : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez une intégration. + +Les données sont jointes au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Interconnexion + + `GcpInterconnectInterconnectSample` + + `GcpInterconnectInterconnect` +
+ Pièce jointe + + `GcpInterconnectAttachmentSample` + + `GcpInterconnectAttachment` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données d'interconnexion GCP pour l'interconnexion et la pièce jointe. + +### Interconnexion Données d'interconnexion + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `network.interconnect.Capacity` + + Octets par seconde + + Capacité active de l'interconnexion. +
+ `network.interconnect.DroppedPackets` + + Compter + + Nombre de paquets sortants abandonnés en raison d'une congestion de lien. +
+ `network.interconnect.link.RxPower` + + Autre + + Niveau de lumière reçu sur le circuit physique. +
+ `network.interconnect.link.TxPower` + + Autre + + Niveau de lumière transmis sur le circuit physique. +
+ `network.interconnect.ReceiveErrors` + + Compter + + Nombre d'erreurs rencontrées lors de la réception des paquets. +
+ `network.interconnect.ReceivedBytes` + + Octets + + Nombre d'octets entrants reçus. +
+ `network.interconnect.ReceivedUnicastPackets` + + Compter + + Nombre de paquets unicast entrants reçus. +
+ `network.interconnect.SendErrors` + + Compter + + Nombre d'erreurs rencontrées lors de l'envoi de paquets. +
+ `network.interconnect.SentBytes` + + Octets + + Nombre d'octets sortants envoyés. +
+ `network.interconnect.SentUnicastPackets` + + Compter + + Nombre de paquets unicast sortants envoyés. +
+ +### Données de connexion d'interconnexion + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `network.attachment.Capacity` + + Octets par seconde + + Capacité du réseau de la pièce jointe. +
+ `network.attachment.ReceivedBytes` + + Octets + + Nombre d'octets entrants reçus. +
+ `network.attachment.ReceivedPackets` + + Compter + + Nombre de paquets entrants reçus. +
+ `network.attachment.SentBytes` + + Octets + + Nombre d'octets sortants envoyés. +
+ `network.attachment.SentPackets` + + Compter + + Nombre de paquets sortants envoyés. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-kubernetes-engine-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-kubernetes-engine-monitoring-integration.mdx new file mode 100644 index 00000000000..bf819585f98 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-kubernetes-engine-monitoring-integration.mdx @@ -0,0 +1,419 @@ +--- +title: Intégration de Google Kubernetes Engine monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic''s Google Kubernetes Engine (GKE) integration: what data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) avec [Google Kubernetes Engine](https://cloud.google.com/kubernetes-engine/) (GKE) génère des données sur le cluster hébergé sur infrastructure de Google. Vous pouvez monitorer et alerter sur les données de votre instance GKE à partir de notre [UI infrastructure](/docs/infrastructure) et [vous pouvez créer des requêtes personnalisées et des dashboards graphiques](/docs/insights). + +## Activer l'intégration [#activate] + +Pour permettre l’intégration : + +1. Assurez-vous d’avoir [installé l’agent infrastructure ](/docs/infrastructure/new-relic-infrastructure/installation)avant d’activer l’intégration GCP depuis New Relic. +2. Suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## Fréquence des sondages [#polling] + +L'intégration de New Relic interroge vos services GCP selon un intervalle d'interrogation, qui varie en fonction de l'intégration. L'intervalle d'interrogation pour l'intégration de Google Kubernetes Engine est de 5 minutes. La résolution est de 1 point de données par minute. + +## Rechercher et utiliser des données [#find-data] + +Après avoir activé l'intégration et attendu quelques minutes (en fonction de la [fréquence d'interrogation](#polling)), les données apparaîtront dans l'UI de New Relic. Pour [rechercher et utiliser vos données](/docs/infrastructure/integrations/find-use-infrastructure-integration-data), y compris les liens vers vos et vos paramètres d'alerte, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP > (select an integration)**. + +## données métriques [#metrics] + +Les données que New Relic reçoit de votre intégration Google Kubernetes Engine incluent les données métriques suivantes. Pour en savoir plus sur ces métriques, consultez la documentation de Google sur [Métriques pour Kubernetes Engine](https://cloud.google.com/monitoring/api/metrics_gcp#gcp-container). + +### Exemple de conteneur GcpKubernetes [#GcpKubernetesContainer] + +New Relic reçoit les données suivantes de votre intégration GCP Kubernetes Engine et elles sont signalées à un type d'événement `GcpKubernetesContainerSample` avec la valeur de fournisseur `GcpKubernetesContainer`. Les métriques `container/accelerator` ne sont disponibles que si le mode expérimental sur Kubernetes est activé et que le GPU a été ajouté à votre cluster et à votre conteneur. requête `GcpKubernetesContainerSample` événement pour visualiser les données de l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `container.accelerator.dutyCycle` + + Pourcentage de temps au cours de la dernière période d'échantillonnage (10 secondes) pendant lequel l'accélérateur effectuait un traitement actif. + + Les métriques `container.accelerator` ne sont disponibles que pour les nœuds de cluster Kubernetes Engine dotés d'accélérateurs matériels d'unité de traitement graphique (GPU). +
+ `container.accelerator.memoryTotal` + + Mémoire totale de l'accélérateur en octets. + + Les métriques `container.accelerator` ne sont disponibles que pour les nœuds de cluster Kubernetes Engine dotés d'accélérateurs matériels d'unité de traitement graphique (GPU). +
+ `container.accelerator.memoryUsed` + + Mémoire accélératrice totale allouée en octets. + + Les métriques `container.accelerator` ne sont disponibles que pour les nœuds de cluster Kubernetes Engine dotés d'accélérateurs matériels d'unité de traitement graphique (GPU). +
+ `container.cpu.limitCores` + + Limite du nombre de cœurs CPU du conteneur. Échantillonné toutes les 60 secondes. +
+ `container.cpu.usageTime` + + Utilisation cumulée du processeur sur tous les cœurs en secondes. Ce nombre divisé par le temps écoulé représente l'utilisation en tant que nombre de cœurs, quelle que soit la limite de cœurs qui pourrait être définie. +
+ `container.cpu.limitUtilization` + + La fraction de la limite de mémoire actuellement utilisée sur l'instance. Cette valeur ne peut pas dépasser 1 car l'utilisation ne peut pas dépasser la limite. Échantillonné toutes les 60 secondes. Après l'échantillonnage, les données ne sont pas visibles pendant 60 secondes. + + Cette métrique n'est disponible que lorsqu'une limite de mémoire maximale a été spécifiée pour le conteneur. +
+ `container.cpu.requestCores` + + Nombre de cœurs CPU demandés par le conteneur. Échantillonné toutes les 60 secondes. +
+ `container.cpu.requestUtilization` + + La fraction du CPU demandé qui est actuellement utilisée sur l'instance. Cette valeur peut être supérieure à 1 car l'utilisation peut dépasser la demande. Échantillonné toutes les 60 secondes. Après l'échantillonnage, les données ne sont pas visibles pendant 180 secondes. +
+ `container.memory.limitBytes` + + Limite de mémoire du conteneur en octets. Échantillonné toutes les 60 secondes. +
+ `container.memory.limitUtilization` + + La fraction de la limite de mémoire actuellement utilisée sur l'instance. Cette valeur ne peut pas dépasser 1 car l'utilisation ne peut pas dépasser la limite. Échantillonné toutes les 60 secondes. Après l'échantillonnage, les données ne sont pas visibles pendant 60 secondes. +
+ `container.memory.requestBytes` + + Demande de mémoire du conteneur en octets. Échantillonné toutes les 60 secondes. +
+ `container.memory.requestUtilization` + + La fraction de la mémoire demandée actuellement utilisée sur l'instance. Cette valeur peut être supérieure à 1 car l'utilisation peut dépasser la demande. Échantillonné toutes les 60 secondes. Après l'échantillonnage, les données ne sont pas visibles pendant 60 secondes. +
+ `container.memory.usedBytes` + + Utilisation de la mémoire en octets. Échantillonné toutes les 60 secondes. +
+ `container.restartCount` + + Nombre de fois que le conteneur a redémarré. Échantillonné toutes les 60 secondes. +
+ `container.uptime` + + Durée en secondes pendant laquelle le conteneur a été exécuté. Échantillonné toutes les 60 secondes. +
+ +### Exemple de nœud GcpKubernetes [#GcpKubernetesNode] + +New Relic reçoit les données suivantes de votre intégration GCP Kubernetes Engine et elles sont signalées à un type d'événement `GcpKubernetesNodeSample` avec la valeur de fournisseur `GcpKubernetesNode`. requête `GcpKubernetesNodeSample` événement pour visualiser les données de l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `node.cpu.allocatableCores` + + Nombre de cœurs CPU allouables sur le nœud. Échantillonné toutes les 60 secondes. +
+ `node.cpu.allocatableUtilization` + + La fraction du CPU allouable actuellement utilisée sur l'instance. Cette valeur ne peut pas dépasser 1 car l'utilisation ne peut pas dépasser les cœurs de processeur allouables. Échantillonné toutes les 60 secondes. Après l'échantillonnage, les données ne sont pas visibles pendant 180 secondes. +
+ `node.cpu.coreUsageTime` + + Utilisation cumulée du processeur sur tous les cœurs utilisés sur le nœud en secondes. Échantillonné toutes les 60 secondes. +
+ `node.cpu.totalCores` + + Nombre total de cœurs CPU sur le nœud. Échantillonné toutes les 60 secondes. +
+ `node.memory.allocatableBytes` + + Octets de mémoire cumulés utilisés par le nœud. Échantillonné toutes les 60 secondes. +
+ `node.memory.allocatableUtilization` + + La fraction de la mémoire allouable actuellement utilisée sur l'instance. Cette valeur ne peut pas dépasser 1 car l'utilisation ne peut pas dépasser les octets de mémoire allouables. Échantillonné toutes les 60 secondes. Après l'échantillonnage, les données ne sont pas visibles pendant 60 secondes. +
+ `node.memory.totalBytes` + + Nombre d'octets de mémoire allouables sur le nœud. Échantillonné toutes les 60 secondes. +
+ `node.memory.usedBytes` + + Octets de mémoire cumulés utilisés par le nœud. Échantillonné toutes les 60 secondes. +
+ `node.network.receivedBytesCount` + + Nombre cumulé d'octets reçus par le nœud sur le réseau. Échantillonné toutes les 60 secondes. +
+ `node.network.sentBytesCount` + + Nombre cumulé d'octets transmis par le nœud sur le réseau. Échantillonné toutes les 60 secondes. +
+ `nodeDaemon.cpu.coreUsageTime` + + Utilisation cumulée du processeur sur tous les cœurs utilisés par le daemon système au niveau du nœud en secondes. Échantillonné toutes les 60 secondes. +
+ `nodeDaemon.memory.usedBytes` + + Utilisation de la mémoire par le daemon système en octets. Échantillonné toutes les 60 secondes. +
+ +### Exemple de pod GcpKubernetes [#GcpKubernetesPod] + +New Relic reçoit les données suivantes de votre intégration GCP Kubernetes Engine et elles sont signalées à un type d'événement `GcpKubernetesPodSample` avec la valeur de fournisseur `GcpKubernetesPod`. requête `GcpKubernetesPodSample` événement pour visualiser les données de l'attribut suivant : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `pod.network.receivedBytesCount` + + Nombre cumulé d'octets reçus par le pod sur le réseau. Échantillonné toutes les 60 secondes. +
+ `pod.network.sentBytesCount` + + Nombre cumulé d'octets transmis par le pod sur le réseau. Échantillonné toutes les 60 secondes. +
+ `pod.volume.totalBytes` + + Nombre total d'octets de disque disponibles pour le pod. Échantillonné toutes les 60 secondes. +
+ `pod.volume.usedBytes` + + Nombre d'octets de disque utilisés par le pod. Échantillonné toutes les 60 secondes. +
+ `pod.volume.utilization` + + La fraction du volume actuellement utilisée par l'instance. Cette valeur ne peut pas être supérieure à 1 car l'utilisation ne peut pas dépasser l'espace de volume total disponible. Échantillonné toutes les 60 secondes. Après l'échantillonnage, les données ne sont pas visibles pendant 60 secondes. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-memorystore-memcached.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-memorystore-memcached.mdx new file mode 100644 index 00000000000..2ee4cefc3a7 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-memorystore-memcached.mdx @@ -0,0 +1,246 @@ +--- +title: Google Memorystore pour Memcached +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: New Relic's Google Cloud Memcache monitoring integration. +freshnessValidatedDate: never +translationType: machine +--- + +Nous proposons une intégration cloud pour signaler vos données GCP Memcache à notre plateforme. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration GCP Memcache : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez l’intégration. + +Les données sont attachées aux [types d’événements](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivants : + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Nœud Memcache + + `GcpMemcacheMemcacheNodeSample` + + `GcpMemcacheMemcacheNode` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données GCP Memcache pour MemcacheNode. + +### Données MemcacheNode + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `node.ActiveConnections` + + Compter + + Connexions actives dans ce nœud Memcached. +
+ `node.CacheMemory` + + Octets + + Octets alloués à Memcached dans ce nœud, regroupés selon que cette mémoire est utilisée ou non. +
+ `node.cpu.UsageTime` + + Secondes + + Temps d'utilisation du processeur par processus Memcached regroupé par utilisateur et par mode noyau. +
+ `node.cpu.Utilization` + + Double + + Pourcentage d'utilisation du processeur par nœud Memcached. +
+ `node.Eviction` + + Compter + + Nombre d'éléments expulsés par ce nœud Memcached. +
+ `node.HitRatio` + + Double + + Taux de réussite, exprimé en pourcentage du total requests de cache, hors opérations de définition. Les valeurs sont des nombres compris entre 0,0 et 1,0. +
+ `node.Items` + + Compter + + Éléments stockés dans ce nœud Memcached. +
+ `node.Operation` + + Compter + + Nombre d'opérations Memcached regroupées par commande et type de réponse (par exemple : réussite, échec). +
+ `node.ReceivedBytes` + + Octets + + Octets reçus par ce nœud Memcached. +
+ `node.SentBytes` + + Octets + + Octets envoyés par ce nœud Memcached. +
+ `node.Uptime` + + Secondes + + Durée en secondes pendant laquelle le nœud a été exécuté. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-memorystore-redis.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-memorystore-redis.mdx new file mode 100644 index 00000000000..a16d62ec4ad --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-memorystore-redis.mdx @@ -0,0 +1,512 @@ +--- +title: Google Memorystore pour Redis +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic Google Cloud Datastore integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +Nous proposons une intégration cloud pour signaler vos données GCP Redis à notre plateforme. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration GCP Redis : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez l’intégration. + +Les données sont attachées aux [types d’événements](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivants : + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ Instance Redis + + `GcpRedisInstanceSample` + + `GcpRedisInstance` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données GCP Redis pour RedisInstance. + +### Données Redis + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `clients.Blocked` + + Compter + + Nombre de clients bloqués. +
+ `clients.Connected` + + Compter + + Nombre de connexions client. +
+ `commands.Calls` + + Compter + + Nombre total d'appels pour cette commande en une minute. +
+ `commands.TotalTime` + + Microsecondes + + La durée en microsecondes que cette commande a pris au cours de la dernière seconde. +
+ `commands.UsecPerCall` + + Compter + + Temps moyen par appel supérieur à 1 minute par commande. +
+ `keyspace.AvgTtl` + + Millisecondes + + TTL moyen pour les clés de cette base de données. +
+ `keyspace.Keys` + + Compter + + Nombre de clés stockées dans cette base de données. +
+ `keyspace.KeysWithExpiration` + + Compter + + Nombre de clés avec une expiration dans cette base de données. +
+ `replication.master.slaves.Lag` + + Octets + + Le nombre d'octets derrière lesquels se trouve la réplique. +
+ `replication.master.slaves.Offset` + + Octets + + Le nombre d'octets qui ont été reconnus par les répliques. +
+ `replication.MasterReplOffset` + + Octets + + Le nombre d'octets que le maître a produits et envoyés aux répliques. À comparer avec le décalage d'octets de réplication de la réplique. +
+ `replication.OffsetDiff` + + Octets + + Le nombre d’octets qui n’ont pas été répliqués sur la réplique. Il s'agit de la différence entre le décalage d'octet de réplication (maître) et le décalage d'octet de réplication (réplique). +
+ `replication.Role` + + Compter + + Renvoie une valeur indiquant le rôle du nœud. 1 indique le maître et 0 indique la réplique. +
+ `server.Uptime` + + Secondes + + temps de disponibilité en secondes. +
+ `stats.CacheHitRatio` + + Compter + + taux d'accès au cache en fraction. +
+ `stats.connections.Total` + + Compter + + Nombre total de connexions acceptées par le serveur. +
+ `stats.CpuUtilization` + + processeur + + Secondes CPU consommées par le serveur Redis, réparties par espace système/utilisateur et relation parent/enfant. +
+ `stats.EvictedKeys` + + Compter + + Nombre de clés expulsées en raison de la limite de mémoire maximale. +
+ `stats.ExpiredKeys` + + Compter + + Nombre total d'événements d'expiration de clé. +
+ `stats.KeyspaceHits` + + Compter + + Nombre de recherches réussies de clés dans le dictionnaire principal. +
+ `stats.KeyspaceMisses` + + Compter + + Nombre de recherches infructueuses de clés dans le dictionnaire principal. +
+ `stats.memory.Maxmemory` + + Octets + + Quantité maximale de mémoire que Redis peut consommer. +
+ `stats.memory.SystemMemoryOverloadDuration` + + Microsecondes + + Durée en microsecondes pendant laquelle l'instance est en mode de surcharge de la mémoire système. +
+ `stats.memory.SystemMemoryUsageRatio` + + Compter + + Utilisation de la mémoire en tant que rapport à la mémoire maximale du système. +
+ `stats.memory.Usage` + + Octets + + Nombre total d'octets alloués par Redis. +
+ `stats.memory.UsageRatio` + + Compter + + Utilisation de la mémoire en tant que rapport à la mémoire maximale. +
+ `stats.NetworkTraffic` + + Octets + + Nombre total d'octets envoyés vers/depuis redis (comprend les octets des commandes elles-mêmes, les données de charge et les délimiteurs). +
+ `stats.pubsub.Channels` + + Compter + + Nombre global de canaux pub/sub avec abonnement client. +
+ `stats.pubsub.Patterns` + + Compter + + Nombre global de modèles de publication/abonnement avec abonnements clients. +
+ `stats.RejectConnections` + + Compter + + Nombre de connexions rejetées en raison de la limite maxclients. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-serverless-vpc-access-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-serverless-vpc-access-monitoring-integration.mdx new file mode 100644 index 00000000000..9a4fd02d753 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-serverless-vpc-access-monitoring-integration.mdx @@ -0,0 +1,148 @@ +--- +title: Intégration de l'accès VPC de Google Serverless monitoring +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic Google Cloud Serverless VPC Access integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données d'accès GCP VPC à nos produits. Nous expliquons ici comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration GCP VPC Access : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez une intégration. + +Les données sont jointes au [type d’événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivant : + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ connecteur + + `GcpVpcaccessConnectorSample` + + `GcpVpcaccessConnector` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte les données d'accès GCP VPC pour le connecteur. + +### Données du connecteur d'accès VPC + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `connector.ReceivedBytes` + + Octets + + Delta d'octets transférés par un connecteur d'accès VPC. +
+ `connector.ReceivedPackets` + + Compter + + Delta de paquets reçus par un connecteur d'accès VPC. +
+ `connector.SentBytes` + + Octets + + Delta d'octets transférés par un connecteur d'accès VPC. +
+ `connector.SentPackets` + + Compter + + Delta de paquets envoyés par un connecteur d'accès VPC. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-vertexai-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-vertexai-monitoring-integration.mdx new file mode 100644 index 00000000000..6b6f722a038 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/gcp-integrations-list/google-vertexai-monitoring-integration.mdx @@ -0,0 +1,902 @@ +--- +title: Intégration monitoring Google VertexAI +tags: + - Integrations + - Google Cloud Platform integrations + - GCP integrations list +metaDescription: 'New Relic Google VertexAI integration: the data it reports and how to enable it.' +freshnessValidatedDate: never +translationType: machine +--- + +[L'intégration de New Relic](/docs/infrastructure/introduction-infra-monitoring) inclut une intégration permettant de signaler vos données GCP Run à nos produits. Ici, nous expliquons comment activer l'intégration et quelles données elle collecte. + +## Activer l'intégration [#activate] + +Pour activer l'intégration, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/connect-google-cloud-platform-services-infrastructure). + +## configuration et sondage [#polling] + +Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide [des options de configuration](/docs/integrations/new-relic-integrations/getting-started/configure-polling-frequency-data-collection-cloud-integrations). + +Informations [d'interrogation](/docs/integrations/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations) par défaut pour l'intégration GCP Run : + +* Intervalle d'interrogation de New Relic : 5 minutes + +## Rechercher et utiliser des données [#find-data] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP** et sélectionnez une intégration. + +Les données sont attachées aux [types d’événements](/docs/data-apis/understand-data/new-relic-data-types/#event-data) suivants : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ entité + + Type d'événement + + Fournisseur +
+ point de terminaison + + `GcpVertexAiEndpointSample` + + `GcpVertexAiEndpoint` +
+ magasin de fonctionnalités + + `GcpVertexAiFeaturestoreSample` + + `GcpVertexAiFeaturestore` +
+ Fonctionnalité Boutique en ligne + + `GcpVertexAiFeatureOnlineStoreSample` + + `GcpVertexAiFeatureOnlineStore` +
+ Emplacement + + `GcpVertexAiLocationSample` + + `GcpVertexAiLocation` +
+ Indice + + `GcpVertexAiIndexSample` + + `GcpVertexAiIndex` +
+ PipelineJob + + `GcpVertexAiPipelineJobSample` + + `GcpVertexAiPipelineJob` +
+ +Pour en savoir plus sur l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +Cette intégration collecte des données GCP pour VertexAI. + +### Données du point de terminaison VertexAI + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `prediction.online.accelerator.duty_cycle` + + Pour cent + + Fraction moyenne de temps au cours de la période d'échantillonnage précédente pendant laquelle les accélérateurs étaient en cours de traitement actif. +
+ `prediction.online.accelerator.memory.bytes_used` + + Octets + + Quantité de mémoire accélératrice allouée par la réplique du modèle Dél. +
+ `prediction.online.error_count` + + Compter + + Nombre d'erreurs de prédiction en ligne. +
+ `prediction.online.memory.bytes_used` + + Octets + + Quantité de mémoire allouée par la réplique du modèle Décal et actuellement utilisée. +
+ `prediction.online.network.received_bytes_count` + + Octets + + Nombre d'octets reçus sur le réseau par la réplique du modèle Déploy. +
+ `prediction.online.network.sent_bytes_count` + + Octets + + Nombre d'octets envoyés sur le réseau par la réplique du modèle déployé. +
+ `prediction.online.prediction_count` + + Compter + + Nombre de prédictions en ligne. +
+ `prediction.online.prediction_latencies` + + Millisecondes + + Latence de prédiction en ligne du modèle déployé. +
+ `prediction.online.private.prediction_latencies` + + Millisecondes + + Latence de prédiction en ligne du modèle de déploiement privé. +
+ `prediction.online.replicas` + + Compter + + Nombre de répliques actives utilisées par le modèle déployé. +
+ `prediction.online.response_count` + + Compter + + Nombre de codes de réponse de prédiction en ligne différents. +
+ `prediction.online.target_replicas` + + Compter + + nombre cible de répliques actives nécessaires pour le modèle déployé. +
+ +### Données du magasin de fonctionnalités VertexAI + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `featurestore.cpu_load` + + Pour cent + + La charge CPU moyenne pour un nœud dans le stockage en ligne Featuresstore. +
+ `featurestore.cpu_load_hottest_node` + + Pour cent + + La charge CPU pour le nœud le plus chaud du stockage en ligne Featuresstore. +
+ `featurestore.node_count` + + Compter + + Le nombre de nœuds pour le stockage en ligne Featuresstore. +
+ `featurestore.online_entities_updated` + + Compter + + Numéro d'entité mis à jour sur le stockage en ligne Featuresstore. +
+ `featurestore.online_serving.latencies` + + Millisecondes + + Latence de service en ligne par EntityType. +
+ `featurestore.online_serving.request_bytes_count` + + Octets + + Taille de la demande par EntityType. +
+ `featurestore.online_serving.request_count` + + Compter + + Nombre de services en ligne de Featuresstore par EntityType. +
+ `featurestore.online_serving.response_size` + + Octets + + Taille de la réponse par EntityType. +
+ `featurestore.storage.billable_processed_bytes` + + Octets + + Nombre d'octets facturés pour les données hors ligne traitées. +
+ `featurestore.storage.stored_bytes` + + Octets + + Octets stockés dans Featuresstore. +
+ `featurestore.streaming_write.offline_processed_count` + + Compter + + Nombre de requests d'écriture en streaming traitées pour le stockage hors ligne. +
+ `featurestore.streaming_write.offline_write_delays` + + Secondes + + Temps (en secondes) écoulé depuis que l'API d'écriture est appelée jusqu'à ce qu'elle soit écrite dans le stockage hors ligne. +
+ +### Données de VertexAI FeatureOnlineStore + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `featureonlinestore.online_serving.request_count` + + Compter + + Nombre de portions par FeatureView. +
+ `featureonlinestore.online_serving.serving_bytes_count` + + Octets + + Taille de la réponse de diffusion par FeatureView. +
+ `featureonlinestore.online_serving.serving_latencies` + + Millisecondes + + Latence de service en ligne par FeatureView. +
+ `featureonlinestore.running_sync` + + Millisecondes + + Nombre de synchronisations en cours d'exécution à un moment donné. +
+ `featureonlinestore.serving_data_ages` + + Secondes + + Mesure de l'âge des données de service en secondes. +
+ `featureonlinestore.serving_data_by_sync_time` + + Compter + + Répartition des données de la fonctionnalité Boutique en ligne par horaire synchronisé. +
+ `featureonlinestore.storage.bigtable_cpu_load` + + Pour cent + + La charge CPU moyenne des nœuds dans la fonctionnalité Boutique en ligne. +
+ `featureonlinestore.storage.bigtable_cpu_load_hottest_node` + + Pour cent + + La charge CPU du nœud le plus chaud de la fonctionnalité Online Store. +
+ `featureonlinestore.storage.bigtable_nodes` + + Compter + + Le nombre de nœuds pour la fonctionnalité Boutique en ligne (Bigtable). +
+ `featureonlinestore.storage.stored_bytes` + + Compter + + Octets stockés dans la fonctionnalité Online Store. +
+ +### Données de localisation VertexAI + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `online_prediction_requests_per_base_model` + + Compter + + Nombre de requests par modèle de base. +
+ `quota.online_prediction_requests_per_base_model.exceeded` + + Compter + + Nombre de tentatives de dépassement de la limite de la métrique de quota. +
+ `quota.online_prediction_requests_per_base_model.limit` + + Compter + + Limite actuelle sur la métrique de quota. +
+ `quota.online_prediction_requests_per_base_model.usage` + + Compter + + Utilisation actuelle de la métrique de quota. +
+ `executing_vertexai_pipeline_jobs` + + Compter + + Nombre de tâches de pipeline en cours d'exécution. +
+ `executing_vertexai_pipeline_tasks` + + Compter + + Nombre de tâches de pipeline en cours d'exécution. +
+ +### Données de l'index VertexAI + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `matching_engine.stream_update.datapoint_count` + + Compter + + Nombre de points de données insérés ou supprimés avec succès. +
+ `matching_engine.stream_update.latencies` + + Millisecondes + + La latence entre l'utilisateur reçoit un UpsertDatapointsResponse ou RemoveDatapointsResponse et cette mise à jour prend effet. +
+ `matching_engine.stream_update.request_count` + + Compter + + Nombre de requests de mise à jour de flux. +
+ +### Données sur les tâches Pipeline VertexAI + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Unité + + Description +
+ `pipelinejob.duration` + + Secondes + + Secondes d'exécution du travail du pipeline en cours d'exécution (de la création à la fin). +
+ `pipelinejob/task_completed_count` + + Compter + + Nombre total de tâches Pipeline terminées. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/get-started/connect-google-cloud-platform-services-new-relic.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/get-started/connect-google-cloud-platform-services-new-relic.mdx new file mode 100644 index 00000000000..671156ad9d5 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/get-started/connect-google-cloud-platform-services-new-relic.mdx @@ -0,0 +1,272 @@ +--- +title: Connecter les services Google Cloud Platform à New Relic +tags: + - Integrations + - Google Cloud Platform integrations + - Get started +metaDescription: How to connect your Google Cloud Platform services to the integration with New Relic. +freshnessValidatedDate: never +translationType: machine +--- + +Pour commencer à recevoir des données Google Cloud Platform (GCP) avec les [intégrations GCP New Relic](/docs/introduction-google-cloud-platform-integrations), connectez votre projet Google au [monitoring de l'infrastructure](/docs/infrastructure) de New Relic.Si vous n'en avez pas déjà un, [créez un compte New Relic](https://newrelic.com/signup). C'est gratuit, pour toujours. + + + Vous pouvez utiliser Terraform pour automatiser le processus d'activation de l'intégration cloud. Découvrez comment procéder sur le [site de documentation officielle de Terraform](https://registry.terraform.io/providers/newrelic/newrelic/latest/docs/guides/cloud_integrations_guide). + + +## Exigences [#reqs] + +Voici les conditions requises pour l'autorisation : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ + **GCP integration requirements** + + + + **Comments** + +
+ Monitoring + + Dans les paramètres du projet GCP **API & Services Library** , vous devez activer **Google Stackdriver Monitoring API**. +
+ Autorisation + + + **For [service account](#service) authorization (recommended):** + + + Vous avez besoin d’un utilisateur avec le rôle **Project IAM Admin** pour ajouter l’ID de compte de service en tant que membre dans votre projet GCP. + + Avant d'ajouter l'ID de compte de service, assurez-vous de cliquer sur le bouton « Récupérer les données » dans l'assistant d'intégration New Relic pour vérifier l'autorisation de récupération des données auprès de Google. + + Dans le projet GCP **IAM & admin**, le compte de service doit avoir le rôle **Viewer** et le rôle **Service Usage Consumer** ou, alternativement, un [rôle personnalisé](/docs/integrations/google-cloud-platform-integrations/get-started/integrations-custom-roles). +
+ + **For [user account](#user) authorization:** + + + L'utilisateur New Relic qui intégrera le projet GCP doit avoir un compte Google et doit pouvoir visualiser le projet GCP que New Relic monitorera. + + Dans le projet GCP **IAM & admin**, l’utilisateur doit avoir les rôles **Project Viewer** et **Monitoring viewer** . + + Veuillez noter que cette méthode d'autorisation ne permettra pas à New Relic de collecter des balises et d'autres attributs qui peuvent être utiles pour affiner votre requête NRQL , votre dashboard et vos alertes. + + Vous pouvez migrer la méthode d'autorisation du compte utilisateur vers le compte de service à partir du lien **Manage services** dans l'interface utilisateur de New Relic. +
+ Nom du projet + + Dans le cadre du [processus de configuration en ligne](#connect), vous devez identifier `Project name` des projets que vous souhaitez monitorer avec New Relic. Le UI workflow répertorie automatiquement les projets actifs que vous pouvez sélectionner. +
+ Autorisations (uniquement pour l'autorisation du compte utilisateur) + + New Relic n'hérite pas des autorisations de votre compte Google et n'est donc pas autorisé à effectuer des modifications dans le projet. De plus, New Relic nécessite un ensemble spécifique d’autorisations en lecture seule exclusivement pour certains types de données. + + Pour plus d'informations sur les autorisations API utilisées par New Relic, consultez la [documentation Google sur les portées](https://developers.google.com/identity/protocols/googlescopes). +
+ +## Options d'autorisation [#authorization] + +L'intégration de votre projet GCP avec New Relic nécessite que vous autorisiez New Relic à récupérer les données monitoring de votre projet GCP. Vous pouvez choisir entre deux méthodes d'autorisation : **Service accounts** ou **User accounts**. + + + + L'autorisation du compte de service est recommandée. + + Si vous autorisez New Relic à récupérer des données via un compte de service, nous appellerons les API de votre projet GCP à l'aide d'un ID de compte de service et de sa paire de clés publique/privée associée. + + New Relic gère un compte de service Google spécifique pour votre compte New Relic ; vous n'avez pas besoin de le créer ni de gérer la clé privée associée. Ajoutez simplement l’ID de compte de service en tant que membre avec des autorisations d’affichage dans votre projet. + + Si votre organisation utilise une [contrainte de restriction de domaine](https://cloud.google.com/resource-manager/docs/organization-policy/restricting-domains), vous devrez mettre à jour la politique pour autoriser le domaine New Relic, `C02x1gp26`. + + Cette méthode d'autorisation est recommandée, surtout si votre projet GCP est géré par une équipe. Cela garantit également que New Relic collectera les tags et autres attributs chaque fois que possible. + + + + Si vous autorisez New Relic à récupérer des données via un compte utilisateur, New Relic accédera aux données monitoring de votre projet GCP au nom d'un utilisateur Google particulier. + + Le processus d'autorisation est réalisé via un workflow OAuth, qui vous redirige de l'UI de New Relic vers une interface d'autorisation Google. Cependant, comme l’autorisation est liée à un utilisateur Google particulier, cette méthode n’est pas recommandée pour les projets GCP gérés par de grandes équipes. + + + +## Connecter GCP à monitoring d'infrastructureNew Relic [#connect] + + + Si c'est la première fois que vous configurez GCP avec New Relic, vous devez vous assurer que vous avez activé le monitoring de l'API cloud pour votre projet. Vous pouvez le faire dans la [console Google Cloud](https://console.cloud.google.com/apis/api/monitoring.googleapis.com/). + + +Pour connecter votre compte Google à New Relic avec l'autorisation du compte utilisateur : + +1. Aller à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP**. Sur la page d'intégration **Google Cloud Services** , sélectionnez **Add a GCP account**. + +2. **Choose Authorization Method**:Sélectionnez **Authorize a [Service Account](#service)** ou **Authorize a [User Account](#user)** et suivez les instructions de l'UI pour autoriser New Relic. + +3. **Add projects:** Sélectionnez les projets pour lesquels vous souhaitez que New Relic reçoive des données. + +4. **Select services:** Dans la liste des services disponibles pour votre compte GCP, sélectionnez les services individuels à partir desquels vous souhaitez que New Relic reçoive des données, ou sélectionnez tous les services. + + + Ces services seront activés pour **all** des projets que vous avez sélectionnés à l'étape précédente. Une fois le processus de configuration terminé, vous pouvez affiner les services que vous souhaitez monitorer pour chaque projet individuellement. + + +5. Pour terminer le processus de configuration, sélectionnez **Finish**. + +Si vous voyez des erreurs d’authentification API, suivez les [procédures de dépannage](/docs/gcp-integration-api-authentication-errors). + +Il peut falloir quelques minutes avant que de nouvelles ressources soient détectées et synthétisées en tant qu'entité. Voir [les limites du système](/docs/data-apis/manage-data/view-system-limits) d'intégration cloud pour plus d'informations. + +## Explorer les données des applications dans New Relic [#find-data] + +Une fois que vous avez autorisé New Relic à intégrer un ou plusieurs services de votre projet Google, New Relic commence monitoring vos données GCP à intervalle d'interrogation régulier. Après quelques minutes, les données apparaîtront dans l'UI de New Relic. Pour [rechercher et utiliser vos données](/docs/infrastructure/integrations/find-use-infrastructure-integration-data), y compris les liens vers et les paramètres d'alerte, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP**. + +## Lier plusieurs projets Google [#connect-mulitple] + +Pour votre commodité, le processus de configuration vous permet de sélectionner plusieurs projets à la fois. + +Après la première configuration, si vous devez monitorer des projets GCP supplémentaires avec New Relic, vous pouvez répéter la procédure pour [connecter vos services GCP](#connect) autant de fois que vous le souhaitez. + +## Dissocier votre intégration GCP [#disconnect] + +Vous pouvez [désactiver n'importe quelle intégration GCP](/docs/infrastructure/new-relic-infrastructure/installation/uninstall-infrastructure-agent#disable-integrations) à tout moment tout en gardant votre projet Google connecté à New Relic. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ + **If you want to...** + + + + **Do this** + +
+ Désactiver une ou plusieurs intégrations de services GCP + + Pour désactiver les services tout en conservant votre compte GCP lié à New Relic : + + 1. À partir de **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP > Manage services**. + 2. Depuis votre page **Edit GCP account** , décochez la case de chaque service actif que vous souhaitez désactiver. + 3. Enregistrez vos modifications. +
+ Désactiver toutes les intégrations GCP et dissocier monitoringde votre projet + + Pour déconnecter complètement votre compte GCP de New Relic, vous devez dissocier votre compte GCP. Cela désactive toutes les intégrations New Relic associées à ce compte GCP. + + Si vous avez enregistré le projet GCP à l'aide d'un **user account**, procédez comme suit : + + 1. Allez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP > Manage services**. + + 2. Depuis votre page **Edit GCP account** , sélectionnez **Unlink this account**. + + 3. Enregistrez vos modifications. + + Si vous avez enregistré le projet GCP à l’aide d’un **service account**, suivez les étapes ci-dessous. Si vous supprimez un rôle personnalisé, sachez que ce rôle peut être utilisé à d’autres fins que l’accès à New Relic. + + Pour un **custom user role**: + + 4. Connectez-vous à New Relic et accédez à **Infrastructure > Integrations > Google Cloud Platform**. + + 5. Accédez à **IAM > admin > Roles**, recherchez le rôle, sélectionnez-le et sélectionnez **DELETE**. + + Pour un **standard (non-custom) user role**: + + 6. Connectez-vous à New Relic et accédez à **Infrastructure > Integrations > Google Cloud Platform**. + + 7. Sélectionnez **Manage Services** pour le compte que vous souhaitez supprimer. Copiez la valeur de **User** et enregistrez-la. + + 8. Connectez-vous à [Google Cloud](https://console.cloud.google.com/) et sélectionnez le projet approprié dans la case **Select a project** . + + 9. Dans le menu de navigation, sélectionnez **IAM & admin > IAM**. + + 10. Recherchez et sélectionnez la valeur utilisateur que vous avez enregistrée, puis sélectionnez **REMOVE**. +
+ Nettoyez vos projets GCP après avoir dissocié New Relic + + Pour nettoyer votre projet GCP après la dissociation, suivez les étapes ci-dessous : + + Si vous utilisiez un **user account**: + + 1. Ouvrez les paramètres de votre compte utilisateur Google. + + 2. Ouvrez la section **Apps with access to your account** . + + 3. Choisissez l'application **New Relic** . + + 4. Choisissez **Remove Access**. + + Si vous utilisiez un **service account**: + + 5. Ouvrez la console GCP IAM. + + 6. Sélectionnez le projet que vous souhaitez dissocier de New Relic et cliquez sur Ouvrir. + + 7. Sélectionnez le compte de service utilisé par New Relic. + + 8. Cliquez sur l'icône **Remove** . +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/get-started/gcp-integration-metrics.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/get-started/gcp-integration-metrics.mdx new file mode 100644 index 00000000000..d54c77e213c --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/get-started/gcp-integration-metrics.mdx @@ -0,0 +1,4805 @@ +--- +title: Métriques d'intégration GCP +tags: + - Integrations + - Google Cloud Platform integrations + - Get started +freshnessValidatedDate: never +translationType: machine +--- + +## Métriques Google Cloud [#gcp-metrics-table] + +Le tableau suivant est une liste non exhaustive des métriques collectées par l'intégration GCP et de leurs traductions [métriques dimensionnelles](/docs/telemetry-data-platform/ingest-manage-data/understand-data/new-relic-data-types/#dimensional-metrics) . + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ intégration + + Nom métrique dimensionnel (nouveau) + + Nom de l'échantillon métrique (précédent) +
+ Moteur d'application GCP + + `gcp.appengine.flex.cpu.reserved_cores` + + `flex.cpu.ReservedCores` +
+ Moteur d'application GCP + + `gcp.appengine.flex.cpu.utilization` + + `flex.cpu.Utilization` +
+ Moteur d'application GCP + + `gcp.appengine.flex.disk.read_bytes_count` + + `flex.disk.ReadBytes` +
+ Moteur d'application GCP + + `gcp.appengine.flex.disk.write_bytes_count` + + `flex.disk.WriteBytes` +
+ Moteur d'application GCP + + `gcp.appengine.flex.network.received_bytes_count` + + `flex.network.ReceivedBytes` +
+ Moteur d'application GCP + + `gcp.appengine.flex.network.sent_bytes_count` + + `flex.network.SentBytes` +
+ Moteur d'application GCP + + `gcp.appengine.http.server.dos_intercept_count` + + `server.DosIntercepts` +
+ Moteur d'application GCP + + `gcp.appengine.http.server.quota_denial_count` + + `server.QuotaDenials` +
+ Moteur d'application GCP + + `gcp.appengine.http.server.response_count` + + `server.Responses` +
+ Moteur d'application GCP + + `gcp.appengine.http.server.response_latencies` + + `server.ResponseLatenciesMilliseconds` +
+ Moteur d'application GCP + + `gcp.appengine.http.server.response_style_count` + + `http.server.ResponseStyle` +
+ Moteur d'application GCP + + `gcp.appengine.memcache.centi_mcu_count` + + `memcache.CentiMcu` +
+ Moteur d'application GCP + + `gcp.appengine.memcache.operation_count` + + `memcache.Operations` +
+ Moteur d'application GCP + + `gcp.appengine.memcache.received_bytes_count` + + `memcache.ReceivedBytes` +
+ Moteur d'application GCP + + `gcp.appengine.memcache.sent_bytes_count` + + `memcache.SentBytes` +
+ Moteur d'application GCP + + `gcp.appengine.system.cpu.usage` + + `system.cpu.Usage` +
+ Moteur d'application GCP + + `gcp.appengine.system.instance_count` + + `system.Instances` +
+ Moteur d'application GCP + + `gcp.appengine.system.memory.usage` + + `system.memory.UsageBytes` +
+ Moteur d'application GCP + + `gcp.appengine.system.network.received_bytes_count` + + `system.network.ReceivedBytes` +
+ Moteur d'application GCP + + `gcp.appengine.system.network.sent_bytes_count` + + `system.network.SentBytes` +
+ Moteur d'application GCP + + `gcp.cloudtasks.api.request_count` + + `api.Requests` +
+ Moteur d'application GCP + + `gcp.cloudtasks.queue.task_attempt_count` + + `queue.taskAttempts` +
+ Moteur d'application GCP + + `gcp.cloudtasks.queue.task_attempt_delays` + + `queue.taskAttemptDelaysMilliseconds` +
+ GCP BigQuery + + `gcp.bigquery.storage.stored_bytes` + + `storage.StoredBytes` +
+ GCP BigQuery + + `gcp.bigquery.storage.table_count` + + `storage.Tables` +
+ GCP BigQuery + + `gcp.bigquery.query.count` + + `query.Count` +
+ GCP BigQuery + + `gcp.bigquery.query.execution_times` + + `query.ExecutionTimes` +
+ GCP BigQuery + + `gcp.bigquery.slots.allocated` + + `slots.Allocated` +
+ GCP BigQuery + + `gcp.bigquery.slots.allocated_for_project` + + `slots.AllocatedForProject` +
+ GCP BigQuery + + `gcp.bigquery.slots.allocated_for_project_and_job_type` + + `slots.AllocatedForProjectAndJobType` +
+ GCP BigQuery + + `gcp.bigquery.slots.allocated_for_reservation` + + `slots.AllocatedForReservation` +
+ GCP BigQuery + + `gcp.bigquery.slots.total_allocated_for_reservation` + + `slots.TotalAllocatedForReservation` +
+ GCP BigQuery + + `gcp.bigquery.slots.total_available` + + `slots.TotalAvailable` +
+ GCP BigQuery + + `gcp.bigquery.storage.uploaded_bytes` + + `storage.UploadedBytes` +
+ GCP BigQuery + + `gcp.bigquery.storage.uploaded_bytes_billed` + + `storage.UploadedBytesBilled` +
+ GCP BigQuery + + `gcp.bigquery.storage.uploaded_row_count` + + `storage.UploadedRows` +
+ Flux de données GCP + + `gcp.dataflow.job.billable_shuffle_data_processed` + + `job.BillableShuffleDataProcessed` +
+ Flux de données GCP + + `gcp.dataflow.job.current_num_vcpus` + + `job.CurrentNumVcpus` +
+ Flux de données GCP + + `gcp.dataflow.job.current_shuffle_slots` + + `job.CurrentShuffleSlots` +
+ Flux de données GCP + + `gcp.dataflow.job.data_watermark_age` + + `job.DataWatermarkAge` +
+ Flux de données GCP + + `gcp.dataflow.job.elapsed_time` + + `job.ElapsedTime` +
+ Flux de données GCP + + `gcp.dataflow.job.element_count` + + `job.Elements` +
+ Flux de données GCP + + `gcp.dataflow.job.estimated_byte_count` + + `job.EstimatedBytes` +
+ Flux de données GCP + + `gcp.dataflow.job.is_failed` + + `job.IsFailed` +
+ Flux de données GCP + + `gcp.dataflow.job.per_stage_data_watermark_age` + + `job.PerStageDataWatermarkAge` +
+ Flux de données GCP + + `gcp.dataflow.job.per_stage_system_lag` + + `job.PerStageSystemLag` +
+ Flux de données GCP + + `gcp.dataflow.job.system_lag` + + `job.SystemLag` +
+ Flux de données GCP + + `gcp.dataflow.job.total_memory_usage_time` + + `job.TotalMemoryUsageTime` +
+ Flux de données GCP + + `gcp.dataflow.job.total_pd_usage_time` + + `job.TotalPdUsageTime` +
+ Flux de données GCP + + `gcp.dataflow.job.total_shuffle_data_processed` + + `job.TotalShuffleDataProcessed` +
+ Flux de données GCP + + `gcp.dataflow.job.total_streaming_data_processed` + + `job.TotalStreamingDataProcessed` +
+ Flux de données GCP + + `gcp.dataflow.job.total_vcpu_time` + + `job.TotalVcpuTime` +
+ Flux de données GCP + + `gcp.dataflow.job.user_counter` + + `job.UserCounter` +
+ GCP Dataproc + + `gcp.dataproc.cluster.hdfs.datanodes` + + `cluster.hdfs.Datanodes` +
+ GCP Dataproc + + `gcp.dataproc.cluster.hdfs.storage_capacity` + + `cluster.hdfs.StorageCapacity` +
+ GCP Dataproc + + `gcp.dataproc.cluster.hdfs.storage_utilization` + + `cluster.hdfs.StorageUtilization` +
+ GCP Dataproc + + `gcp.dataproc.cluster.hdfs.unhealthy_blocks` + + `cluster.hdfs.UnhealthyBlocks` +
+ GCP Dataproc + + `gcp.dataproc.cluster.job.completion_time` + + `cluster.job.CompletionTime` +
+ GCP Dataproc + + `gcp.dataproc.cluster.job.duration` + + `cluster.job.Duration` +
+ GCP Dataproc + + `gcp.dataproc.cluster.job.failed_count` + + `cluster.job.Failures` +
+ GCP Dataproc + + `gcp.dataproc.cluster.job.running_count` + + `cluster.job.Running` +
+ GCP Dataproc + + `gcp.dataproc.cluster.job.submitted_count` + + `cluster.job.Submitted` +
+ GCP Dataproc + + `gcp.dataproc.cluster.operation.completion_time` + + `cluster.operation.CompletionTime` +
+ GCP Dataproc + + `gcp.dataproc.cluster.operation.duration` + + `cluster.operation.Duration` +
+ GCP Dataproc + + `gcp.dataproc.cluster.operation.failed_count` + + `cluster.operation.Failures` +
+ GCP Dataproc + + `gcp.dataproc.cluster.operation.running_count` + + `cluster.operation.Running` +
+ GCP Dataproc + + `gcp.dataproc.cluster.operation.submitted_count` + + `cluster.operation.Submitted` +
+ GCP Dataproc + + `gcp.dataproc.cluster.yarn.allocated_memory_percentage` + + `cluster.yarn.AllocatedMemoryPercentage` +
+ GCP Dataproc + + `gcp.dataproc.cluster.yarn.apps` + + `cluster.yarn.Apps` +
+ GCP Dataproc + + `gcp.dataproc.cluster.yarn.containers` + + `cluster.yarn.Containers` +
+ GCP Dataproc + + `gcp.dataproc.cluster.yarn.memory_size` + + `cluster.yarn.MemorySize` +
+ GCP Dataproc + + `gcp.dataproc.cluster.yarn.nodemanagers` + + `cluster.yarn.Nodemanagers` +
+ GCP Dataproc + + `gcp.dataproc.cluster.yarn.pending_memory_size` + + `cluster.yarn.PendingMemorySize` +
+ GCP Dataproc + + `gcp.dataproc.cluster.yarn.virtual_cores` + + `cluster.yarn.VirtualCores` +
+ Banque de données GCP + + `gcp.datastore.api.request_count` + + `api.Requests` +
+ Banque de données GCP + + `gcp.datastore.entity.read_sizes` + + `entity.ReadSizes` +
+ Banque de données GCP + + `gcp.datastore.entity.write_sizes` + + `entity.WriteSizes` +
+ Banque de données GCP + + `gcp.datastore.index.write_count` + + `index.Writes` +
+ Base de données GCP Firebase + + `gcp.firebasedatabase.io.database_load` + + `io.DatabaseLoad` +
+ Base de données GCP Firebase + + `gcp.firebasedatabase.io.persisted_bytes_count` + + `io.PersistedBytes` +
+ Base de données GCP Firebase + + `gcp.firebasedatabase.io.sent_responses_count` + + `io.SentResponses` +
+ Base de données GCP Firebase + + `gcp.firebasedatabase.io.utilization` + + `io.Utilization` +
+ Base de données GCP Firebase + + `gcp.firebasedatabase.network.active_connections` + + `network.ActiveConnections` +
+ Base de données GCP Firebase + + `gcp.firebasedatabase.network.api_hits_count` + + `network.ApiHits` +
+ Base de données GCP Firebase + + `gcp.firebasedatabase.network.broadcast_load` + + `network.BroadcastLoad` +
+ Base de données GCP Firebase + + `gcp.firebasedatabase.network.https_requests_count` + + `network.HttpsRequests` +
+ Base de données GCP Firebase + + `gcp.firebasedatabase.network.monthly_sent` + + `network.MonthlySent` +
+ Base de données GCP Firebase + + `gcp.firebasedatabase.network.monthly_sent_limit` + + `network.MonthlySentLimit` +
+ Base de données GCP Firebase + + `gcp.firebasedatabase.network.sent_bytes_count` + + `network.SentBytes` +
+ Base de données GCP Firebase + + `gcp.firebasedatabase.network.sent_payload_and_protocol_bytes_count` + + `network.SentPayloadAndProtocolBytes` +
+ Base de données GCP Firebase + + `gcp.firebasedatabase.network.sent_payload_bytes_count` + + `network.SentPayloadBytes` +
+ Base de données GCP Firebase + + `gcp.firebasedatabase.rules.evaluation_count` + + `rules.Evaluation` +
+ Base de données GCP Firebase + + `gcp.firebasedatabase.storage.limit` + + `storage.Limit` +
+ Base de données GCP Firebase + + `gcp.firebasedatabase.storage.total_bytes` + + `storage.TotalBytes` +
+ Hébergement GCP Firebase + + `gcp.firebasehosting.network.monthly_sent` + + `network.MonthlySent` +
+ Hébergement GCP Firebase + + `gcp.firebasehosting.network.monthly_sent_limit` + + `network.MonthlySentLimit` +
+ Hébergement GCP Firebase + + `gcp.firebasehosting.network.sent_bytes_count` + + `network.SentBytes` +
+ Hébergement GCP Firebase + + `gcp.firebasehosting.storage.limit` + + `storage.Limit` +
+ Hébergement GCP Firebase + + `gcp.firebasehosting.storage.total_bytes` + + `storage.TotalBytes` +
+ Stockage GCP Firebase + + `gcp.firebasestorage.rules.evaluation_count` + + `rules.Evaluation` +
+ Magasin de feu GCP + + `gcp.firestore.api.request_count` + + `api.Request` +
+ Magasin de feu GCP + + `gcp.firestore.document.delete_count` + + `document.Delete` +
+ Magasin de feu GCP + + `gcp.firestore.document.read_count` + + `document.Read` +
+ Magasin de feu GCP + + `gcp.firestore.document.write_count` + + `document.Write` +
+ Magasin de feu GCP + + `gcp.firestore.network.active_connections` + + `network.ActiveConnections` +
+ Magasin de feu GCP + + `gcp.firestore.network.snapshot_listeners` + + `network.SnapshotListeners` +
+ Magasin de feu GCP + + `gcp.firestore.rules.evaluation_count` + + `rules.Evaluation` +
+ Fonctions Cloud GCP + + `gcp.cloudfunctions.function.execution_count` + + `function.Executions` +
+ Fonctions Cloud GCP + + `gcp.cloudfunctions.function.execution_times` + + `function.ExecutionTimeNanos` +
+ Fonctions Cloud GCP + + `gcp.cloudfunctions.function.user_memory_bytes` + + `function.UserMemoryBytes` +
+ Interconnexion GCP + + `gcp.interconnect.network.interconnect.capacity` + + `network.interconnect.Capacity` +
+ Interconnexion GCP + + `gcp.interconnect.network.interconnect.dropped_packets_count` + + `network.interconnect.DroppedPackets` +
+ Interconnexion GCP + + `gcp.interconnect.network.interconnect.link.rx_power` + + `network.interconnect.link.RxPower` +
+ Interconnexion GCP + + `gcp.interconnect.network.interconnect.link.tx_power` + + `network.interconnect.link.TxPower` +
+ Interconnexion GCP + + `gcp.interconnect.network.interconnect.receive_errors_count` + + `network.interconnect.ReceiveErrors` +
+ Interconnexion GCP + + `gcp.interconnect.network.interconnect.received_bytes_count` + + `network.interconnect.ReceivedBytes` +
+ Interconnexion GCP + + `gcp.interconnect.network.interconnect.received_unicast_packets_count` + + `network.interconnect.ReceivedUnicastPackets` +
+ Interconnexion GCP + + `gcp.interconnect.network.interconnect.send_errors_count` + + `network.interconnect.SendErrors` +
+ Interconnexion GCP + + `gcp.interconnect.network.interconnect.sent_bytes_count` + + `network.interconnect.SentBytes` +
+ Interconnexion GCP + + `gcp.interconnect.network.interconnect.sent_unicast_packets_count` + + `network.interconnect.SentUnicastPackets` +
+ Interconnexion GCP + + `gcp.interconnect.network.attachment.capacity` + + `network.attachment.Capacity` +
+ Interconnexion GCP + + `gcp.interconnect.network.attachment.received_bytes_count` + + `network.attachment.ReceivedBytes` +
+ Interconnexion GCP + + `gcp.interconnect.network.attachment.received_packets_count` + + `network.attachment.ReceivedPackets` +
+ Interconnexion GCP + + `gcp.interconnect.network.attachment.sent_bytes_count` + + `network.attachment.SentBytes` +
+ Interconnexion GCP + + `gcp.interconnect.network.attachment.sent_packets_count` + + `network.attachment.SentPackets` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.container.accelerator.duty_cycle` + + `container.accelerator.dutyCycle` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.container.accelerator.memory_total` + + `container.accelerator.memoryTotal` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.container.accelerator.memory_used` + + `container.accelerator.memoryUsed` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.container.accelerator.request` + + `container.accelerator.request` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.container.cpu.core_usage_time` + + `container.cpu.usageTime` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.container.cpu.limit_cores` + + `container.cpu.limitCores` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.container.cpu.limit_utilization` + + `container.cpu.limitUtilization` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.container.cpu.request_cores` + + `container.cpu.requestCores` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.container.cpu.request_utilization` + + `container.cpu.requestUtilization` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.container.memory.limit_bytes` + + `container.memory.limitBytes` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.container.memory.limit_utilization` + + `container.memory.limitUtilization` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.container.memory.request_bytes` + + `container.memory.requestBytes` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.container.memory.request_utilization` + + `container.memory.requestUtilization` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.container.memory.used_bytes` + + `container.memory.usedBytes` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.container.restart_count` + + `container.restartCount` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.container.uptime` + + `container.uptime` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.node_daemon.cpu.core_usage_time` + + `nodeDaemon.cpu.coreUsageTime` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.node_daemon.memory.used_bytes` + + `nodeDaemon.memory.usedBytes` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.node.cpu.allocatable_cores` + + `node.cpu.allocatableCores` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.node.cpu.allocatable_utilization` + + `node.cpu.allocatableUtilization` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.node.cpu.core_usage_time` + + `node.cpu.coreUsageTime` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.node.cpu.total_cores` + + `node.cpu.totalCores` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.node.memory.allocatable_bytes` + + `node.memory.allocatableBytes` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.node.memory.allocatable_utilization` + + `node.memory.allocatableUtilization` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.node.memory.total_bytes` + + `node.memory.totalBytes` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.node.memory.used_bytes` + + `node.memory.usedBytes` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.node.network.received_bytes_count` + + `node.network.receivedBytesCount` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.node.network.sent_bytes_count` + + `node.network.sentBytesCount` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.pod.network.received_bytes_count` + + `pod.network.receivedBytesCount` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.pod.network.sent_bytes_count` + + `pod.network.sentBytesCount` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.pod.volume.total_bytes` + + `pod.volume.totalBytes` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.pod.volume.used_bytes` + + `pod.volume.usedBytes` +
+ Moteur Kubernetes GCP + + `gcp.kubernetes.pod.volume.utilization` + + `pod.volume.utilization` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.https.backend_latencies` + + `https.BackendLatencies` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.https.backend_request_bytes_count` + + `https.BackendRequestBytes` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.https.backend_request_count` + + `https.BackendRequests` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.https.backend_response_bytes_count` + + `https.BackendResponseBytes` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.https.frontend_tcp_rtt` + + `https.FrontendTcpRtt` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.https.request_bytes_count` + + `https.RequestBytes` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.https.request_count` + + `https.Requests` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.https.response_bytes_count` + + `https.ResponseBytes` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.https.total_latencies` + + `https.TotalLatencies` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.l3.internal.egress_bytes_count` + + `l3.internal.EgressBytes` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.l3.internal.egress_packets_count` + + `l3.internal.EgressPackets` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.l3.internal.ingress_bytes_count` + + `l3.internal.IngressBytes` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.l3.internal.ingress_packets_count` + + `l3.internal.IngressPackets` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.l3.internal.rtt_latencies` + + `l3.internal.RttLatencies` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.tcp_ssl_proxy.closed_connections` + + `tcpSslProxy.ClosedConnections` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.tcp_ssl_proxy.egress_bytes_count` + + `tcpSslProxy.EgressBytes` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.tcp_ssl_proxy.frontend_tcp_rtt` + + `tcpSslProxy.FrontendTcpRtt` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.tcp_ssl_proxy.ingress_bytes_count` + + `tcpSslProxy.IngressBytes` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.tcp_ssl_proxy.new_connections` + + `tcpSslProxy.NewConnections` +
+ Équilibreur de charge GCP + + `gcp.loadbalancing.tcp_ssl_proxy.open_connections` + + `tcpSslProxy.OpenConnections` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.backlog_bytes` + + `subscription.BacklogBytes` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.byte_cost` + + `subscription.ByteCost` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.config_updates_count` + + `subscription.ConfigUpdates` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.mod_ack_deadline_message_operation_count` + + `subscription.ModAckDeadlineMessageOperation` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.mod_ack_deadline_request_count` + + `subscription.ModAckDeadlineRequest` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.num_outstanding_messages` + + `subscription.NumOutstandingMessages` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.num_retained_acked_messages` + + `subscription.NumRetainedAckedMessages` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.num_retained_acked_messages_by_region` + + `subscription.NumRetainedAckedMessagesByRegion` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.num_unacked_messages_by_region` + + `subscription.NumUnackedMessagesByRegion` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.num_undelivered_messages` + + `subscription.NumUndeliveredMessages` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.oldest_retained_acked_message_age` + + `subscription.OldestRetainedAckedMessageAge` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.oldest_retained_acked_message_age_by_region` + + `subscription.OldestRetainedAckedMessageAgeByRegion` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.oldest_unacked_message_age` + + `subscription.OldestUnackedMessageAge` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.oldest_unacked_message_age_by_region` + + `subscription.OldestUnackedMessageAgeByRegion` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.pull_ack_message_operation_count` + + `subscription.PullAckMessageOperation` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.pull_ack_request_count` + + `subscription.PullAckRequest` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.pull_message_operation_count` + + `subscription.PullMessageOperation` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.pull_request_count` + + `subscription.PullRequest` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.push_request_count` + + `subscription.PushRequest` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.push_request_latencies` + + `subscription.PushRequestLatencies` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.retained_acked_bytes` + + `subscription.RetainedAckedBytes` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.retained_acked_bytes_by_region` + + `subscription.RetainedAckedBytesByRegion` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.streaming_pull_ack_message_operation_count` + + `subscription.StreamingPullAckMessageOperation` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.streaming_pull_ack_request_count` + + `subscription.StreamingPullAckRequest` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.streaming_pull_message_operation_count` + + `subscription.StreamingPullMessageOperation` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.streaming_pull_mod_ack_deadline_message_operation_count` + + `subscription.StreamingPullModAckDeadlineMessageOperation` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.streaming_pull_mod_ack_deadline_request_count` + + `subscription.StreamingPullModAckDeadlineRequest` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.streaming_pull_response_count` + + `subscription.StreamingPullResponse` +
+ Publication/abonnement GCP + + `gcp.pubsub.subscription.unacked_bytes_by_region` + + `subscription.UnackedBytesByRegion` +
+ Publication/abonnement GCP + + `gcp.pubsub.topic.byte_cost` + + `topic.ByteCost` +
+ Publication/abonnement GCP + + `gcp.pubsub.topic.config_updates_count` + + `topic.ConfigUpdates` +
+ Publication/abonnement GCP + + `gcp.pubsub.topic.message_sizes` + + `topic.MessageSizes` +
+ Publication/abonnement GCP + + `gcp.pubsub.topic.num_retained_acked_messages_by_region` + + `topic.NumRetainedAckedMessagesByRegion` +
+ Publication/abonnement GCP + + `gcp.pubsub.topic.num_unacked_messages_by_region` + + `topic.NumUnackedMessagesByRegion` +
+ Publication/abonnement GCP + + `gcp.pubsub.topic.oldest_retained_acked_message_age_by_region` + + `topic.OldestRetainedAckedMessageAgeByRegion` +
+ Publication/abonnement GCP + + `gcp.pubsub.topic.oldest_unacked_message_age_by_region` + + `topic.OldestUnackedMessageAgeByRegion` +
+ Publication/abonnement GCP + + `gcp.pubsub.topic.retained_acked_bytes_by_region` + + `topic.RetainedAckedBytesByRegion` +
+ Publication/abonnement GCP + + `gcp.pubsub.topic.send_message_operation_count` + + `topic.SendMessageOperation` +
+ Publication/abonnement GCP + + `gcp.pubsub.topic.send_request_count` + + `topic.SendRequest` +
+ Publication/abonnement GCP + + `gcp.pubsub.topic.unacked_bytes_by_region` + + `topic.UnackedBytesByRegion` +
+ Routeur GCP + + `gcp.router.best_received_routes_count` + + `BestReceivedRoutes` +
+ Routeur GCP + + `gcp.router.bfd.control.receive_intervals` + + `bfd.control.ReceiveIntervals` +
+ Routeur GCP + + `gcp.router.bfd.control.received_packets_count` + + `bfd.control.ReceivedPackets` +
+ Routeur GCP + + `gcp.router.bfd.control.rejected_packets_count` + + `bfd.control.RejectedPackets` +
+ Routeur GCP + + `gcp.router.bfd.control.transmit_intervals` + + `bfd.control.TransmitIntervals` +
+ Routeur GCP + + `gcp.router.bfd.control.transmitted_packets_count` + + `bfd.control.TransmittedPackets` +
+ Routeur GCP + + `gcp.router.bfd.session_up` + + `bfd.SessionUp` +
+ Routeur GCP + + `gcp.router.bgp_sessions_down_count` + + `BgpSessionsDown` +
+ Routeur GCP + + `gcp.router.bgp_sessions_up_count` + + `BgpSessionsUp` +
+ Routeur GCP + + `gcp.router.bgp.received_routes_count` + + `bgp.ReceivedRoutes` +
+ Routeur GCP + + `gcp.router.bgp.sent_routes_count` + + `bgp.SentRoutes` +
+ Routeur GCP + + `gcp.router.bgp.session_up` + + `bgp.SessionUp` +
+ Routeur GCP + + `gcp.router.router_up` + + `RouterUp` +
+ Routeur GCP + + `gcp.router.sent_routes_count` + + `SentRoutes` +
+ Routeur GCP + + `gcp.router.nat.allocated_ports` + + `nat.AllocatedPorts` +
+ Routeur GCP + + `gcp.router.nat.closed_connections_count` + + `nat.ClosedConnections` +
+ Routeur GCP + + `gcp.router.nat.dropped_received_packets_count` + + `nat.DroppedReceivedPackets` +
+ Routeur GCP + + `gcp.router.nat.new_connections_count` + + `nat.NewConnections` +
+ Routeur GCP + + `gcp.router.nat.port_usage` + + `nat.PortUsage` +
+ Routeur GCP + + `gcp.router.nat.received_bytes_count` + + `nat.ReceivedBytes` +
+ Routeur GCP + + `gcp.router.nat.received_packets_count` + + `nat.ReceivedPackets` +
+ Routeur GCP + + `gcp.router.nat.sent_bytes_count` + + `nat.SentBytes` +
+ Routeur GCP + + `gcp.router.nat.sent_packets_count` + + `nat.SentPackets` +
+ Exécution GCP + + `gcp.run.container.billable_instance_time` + + `container.BillableInstanceTime` +
+ Exécution GCP + + `gcp.run.container.cpu.allocation_time` + + `container.cpu.AllocationTime` +
+ Exécution GCP + + `gcp.run.container.memory.allocation_time` + + `container.memory.AllocationTime` +
+ Exécution GCP + + `gcp.run.request_count` + + `Request` +
+ Exécution GCP + + `gcp.run.request_latencies` + + `RequestLatencies` +
+ Clé GCP + + `gcp.spanner.api.received_bytes_count` + + `api.ReceivedBytes` +
+ Clé GCP + + `gcp.spanner.api.request_count` + + `api.Requests` +
+ Clé GCP + + `gcp.spanner.api.request_latencies` + + `api.RequestLatencies` +
+ Clé GCP + + `gcp.spanner.instance.cpu.utilization` + + `instance.cpu.Utilization` +
+ Clé GCP + + `gcp.spanner.instance.node_count` + + `instance.nodes` +
+ Clé GCP + + `gcp.spanner.instance.session_count` + + `instance.sessions` +
+ Clé GCP + + `gcp.spanner.instance.storage.used_bytes` + + `instance.storage.UsedBytes` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.auto_failover_request_count` + + `database.AutoFailoverRequest` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.available_for_failover` + + `database.AvailableForFailover` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.cpu.reserved_cores` + + `database.cpu.ReservedCores` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.cpu.usage_time` + + `database.cpu.UsageTime` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.cpu.utilization` + + `database.cpu.Utilization` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.disk.bytes_used` + + `database.disk.BytesUsed` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.disk.quota` + + `database.disk.Quota` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.disk.read_ops_count` + + `database.disk.ReadOps` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.disk.utilization` + + `database.disk.Utilization` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.disk.write_ops_count` + + `database.disk.WriteOps` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.memory.quota` + + `database.memory.Quota` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.memory.usage` + + `database.memory.Usage` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.memory.utilization` + + `database.memory.Utilization` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.mysql.innodb_buffer_pool_pages_dirty` + + `database.mysql.InnodbBufferPoolPagesDirty` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.mysql.innodb_buffer_pool_pages_free` + + `database.mysql.InnodbBufferPoolPagesFree` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.mysql.innodb_buffer_pool_pages_total` + + `database.mysql.InnodbBufferPoolPagesTotal` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.mysql.innodb_data_fsyncs` + + `database.mysql.InnodbDataFsyncs` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.mysql.innodb_os_log_fsyncs` + + `database.mysql.InnodbOsLogFsyncs` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.mysql.innodb_pages_read` + + `database.mysql.InnodbPagesRead` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.mysql.innodb_pages_written` + + `database.mysql.InnodbPagesWritten` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.mysql.queries` + + `database.mysql.Queries` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.mysql.questions` + + `database.mysql.Questions` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.mysql.received_bytes_count` + + `database.mysql.ReceivedBytes` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.mysql.replication.seconds_behind_master` + + `database.mysql.replication.SecondsBehindMaster` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.mysql.sent_bytes_count` + + `database.mysql.SentBytes` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.network.connections` + + `database.network.Connections` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.network.received_bytes_count` + + `database.network.ReceivedBytes` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.network.sent_bytes_count` + + `database.network.SentBytes` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.postgresql.num_backends` + + `database.postgresql.NumBackends` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.postgresql.replication.replica_byte_lag` + + `database.postgresql.replication.ReplicaByteLag` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.postgresql.transaction_count` + + `database.postgresql.Transaction` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.up` + + `database.Up` +
+ GCP Cloud SQL + + `gcp.cloudsql.database.uptime` + + `database.Uptime` +
+ Stockage dans le cloud GCP + + `gcp.storage.api.request_count` + + `api.Requests` +
+ Stockage dans le cloud GCP + + `gcp.storage.network.received_bytes_count` + + `network.ReceivedBytes` +
+ Stockage dans le cloud GCP + + `gcp.storage.network.sent_bytes_count` + + `network.SentBytes` +
+ Machines virtuelles GCP + + `gcp.compute.firewall.dropped_bytes_count` + + `firewall.DroppedBytes` +
+ Machines virtuelles GCP + + `gcp.compute.firewall.dropped_packets_count` + + `firewall.DroppedPackets` +
+ Machines virtuelles GCP + + `gcp.compute.instance.cpu.reserved_cores` + + `instance.cpu.ReservedCores` +
+ Machines virtuelles GCP + + `gcp.compute.instance.cpu.utilization` + + `instance.cpu.Utilization` +
+ Machines virtuelles GCP + + `gcp.compute.instance.disk.read_bytes_count` + + `instance.disk.ReadBytes` +
+ Machines virtuelles GCP + + `gcp.compute.instance.disk.read_ops_count` + + `instance.disk.ReadOps` +
+ Machines virtuelles GCP + + `gcp.compute.instance.disk.write_bytes_count` + + `instance.disk.WriteBytes` +
+ Machines virtuelles GCP + + `gcp.compute.instance.disk.write_ops_count` + + `instance.disk.WriteOps` +
+ Machines virtuelles GCP + + `gcp.compute.instance.network.received_bytes_count` + + `instance.network.ReceivedBytes` +
+ Machines virtuelles GCP + + `gcp.compute.instance.network.received_packets_count` + + `instance.network.ReceivedPackets` +
+ Machines virtuelles GCP + + `gcp.compute.instance.network.sent_bytes_count` + + `instance.network.SentBytes` +
+ Machines virtuelles GCP + + `gcp.compute.instance.network.sent_packets_count` + + `instance.network.SentPackets` +
+ Machines virtuelles GCP + + `gcp.compute.instance.disk.throttled_read_bytes_count` + + `instance.disk.ThrottledReadBytes` +
+ Machines virtuelles GCP + + `gcp.compute.instance.disk.throttled_read_ops_count` + + `instance.disk.ThrottledReadOps` +
+ Machines virtuelles GCP + + `gcp.compute.instance.disk.throttled_write_bytes_count` + + `instance.disk.ThrottledWriteBytes` +
+ Machines virtuelles GCP + + `gcp.compute.instance.disk.throttled_write_ops_count` + + `instance.disk.ThrottledWriteOps` +
+ Accès GCP VPC + + `gcp.vpcaccess.connector.received_bytes_count` + + `connector.ReceivedBytes` +
+ Accès GCP VPC + + `gcp.vpcaccess.connector.received_packets_count` + + `connector.ReceivedPackets` +
+ Accès GCP VPC + + `gcp.vpcaccess.connector.sent_bytes_count` + + `connector.SentBytes` +
+ Accès GCP VPC + + `gcp.vpcaccess.connector.sent_packets_count` + + `connector.SentPackets` +
+ Cluster GCP AlloyDB + + `gcp.alloydb.cluster.storage.usage` + + `cluster.storage.Usage` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.aggregate.executionTime` + + `database.postgresql.insights.aggregate.ExecutionTime` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.aggregate.ioTime` + + `database.postgresql.insights.aggregate.IoTime` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.aggregate.latencies` + + `database.postgresql.insights.aggregate.Latencies` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.aggregate.lockTime` + + `database.postgresql.insights.aggregate.LockTime` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.aggregate.rowCount` + + `database.postgresql.insights.aggregate.Row` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.aggregate.sharedBlkAccessCount` + + `database.postgresql.insights.aggregate.SharedBlkAccess` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.perquery.executionTime` + + `database.postgresql.insights.perquery.ExecutionTime` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.perquery.ioTime` + + `database.postgresql.insights.perquery.IoTime` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.perquery.latencies` + + `database.postgresql.insights.perquery.Latencies` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.perquery.lockTime` + + `database.postgresql.insights.perquery.LockTime` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.perquery.rowCount` + + `database.postgresql.insights.perquery.Row` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.perquery.sharedBlkAccessCount` + + `database.postgresql.insights.perquery.SharedBlkAccess` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.pertag.executionTime` + + `database.postgresql.insights.pertag.ExecutionTime` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.pertag.ioTime` + + `database.postgresql.insights.pertag.IoTime` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.pertag.latencies` + + `database.postgresql.insights.pertag.Latencies` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.pertag.lockTime` + + `database.postgresql.insights.pertag.LockTime` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.pertag.rowCount` + + `database.postgresql.insights.pertag.Row` +
+ Base de données GCP AlloyDB + + `gcp.alloydb.database.postgresql.insights.pertag.sharedBlkAccessCount` + + `database.postgresql.insights.pertag.SharedBlkAccess` +
+ Instance GCP AlloyDB + + `gcp.alloydb.instance.cpu.averageUtilization` + + `instance.cpu.AverageUtilization` +
+ Instance GCP AlloyDB + + `gcp.alloydb.instance.cpu.maximumUtilization` + + `instance.cpu.MaximumUtilization` +
+ Instance GCP AlloyDB + + `gcp.alloydb.instance.cpu.vcpus` + + `instance.cpu.Vcpus` +
+ Instance GCP AlloyDB + + `gcp.alloydb.instance.memory.minAvailableMemory` + + `instance.memory.MinAvailableMemory` +
+ Instance GCP AlloyDB + + `gcp.alloydb.instance.postgres.abortCount` + + `instance.postgres.Abort` +
+ Instance GCP AlloyDB + + `gcp.alloydb.instance.postgres.averageConnections` + + `instance.postgres.AverageConnections` +
+ Instance GCP AlloyDB + + `gcp.alloydb.instance.postgres.commitCount` + + `instance.postgres.Commit` +
+ Instance GCP AlloyDB + + `gcp.alloydb.instance.postgres.connectionsLimit` + + `instance.postgres.ConnectionsLimit` +
+ Instance GCP AlloyDB + + `gcp.alloydb.instance.postgres.instances` + + `instance.postgres.Instances` +
+ Instance GCP AlloyDB + + `gcp.alloydb.instance.postgres.replication.maximumLag` + + `instance.postgres.replication.MaximumLag` +
+ Instance GCP AlloyDB + + `gcp.alloydb.instance.postgres.replication.replicas` + + `instance.postgres.replication.Replicas` +
+ Instance GCP AlloyDB + + `gcp.alloydb.instance.postgres.totalConnections` + + `instance.postgres.TotalConnections` +
+ Instance GCP AlloyDB + + `gcp.alloydb.instance.postgres.transactionCount` + + `instance.postgres.Transaction` +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/get-started/integrations-custom-roles.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/get-started/integrations-custom-roles.mdx new file mode 100644 index 00000000000..434f4d1b149 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/get-started/integrations-custom-roles.mdx @@ -0,0 +1,184 @@ +--- +title: intégration et rôles personnalisés +tags: + - Integrations + - Google Cloud Platform integrations + - Get started +metaDescription: How to use Google Cloud Platform roles in your New Relic integration to grant New Relic permission to monitor your GCP services. +freshnessValidatedDate: never +translationType: machine +--- + +Pour lire les données pertinentes de votre compte Google Cloud Platform (GCP), New Relic utilise l'API Google Stackdriver ainsi que d'autres API de services spécifiques. Pour accéder à ces API dans votre projet Google Cloud, le compte autorisé New Relic doit disposer d'un certain ensemble d'autorisations ; GCP utilise des rôles pour accorder ces autorisations. + +## Rôle recommandé [#recommended] + +Par défaut **highly recommend** nous utilisons le rôle primitif GCP `Viewer`, qui accorde des «[autorisations pour les actions en lecture seule qui n'affectent pas l'état de votre infrastructure cloud, telles que l'affichage (mais pas la modification) des ressources ou des données existantes.](https://cloud.google.com/iam/docs/understanding-roles)» Ce rôle est automatiquement géré par Google et mis à jour lorsque de nouveaux services cloud Google sont sortis ou modifiés. + +## Rôle optionnel [#optional] + +Vous pouvez également créer votre propre rôle personnalisé en fonction de la [liste des autorisations](/docs/integrations/google-cloud-platform-integrations/get-started/integrations-custom-roles#list-permissions), qui spécifie l'ensemble minimal d'autorisations requises pour récupérer des données à partir de chaque intégration GCP. Cela vous permettra d'avoir plus de contrôle sur les autorisations définies pour le compte autorisé New Relic. + + + New Relic n'a aucun moyen d'identifier les problèmes liés aux autorisations personnalisées. Si vous choisissez de créer un rôle personnalisé, il est de votre responsabilité de le maintenir et de vous assurer que les données appropriées sont collectées. + + +Pour personnaliser votre rôle, vous devez : + +1. Créez un rôle personnalisé Google Cloud IAM dans chacun des projets GCP que vous souhaitez monitorer avec New Relic. +2. Dans chaque rôle personnalisé, ajoutez les autorisations spécifiquement requises pour les services cloud que vous souhaitez monitorer selon la liste suivante. +3. Attribuez le(s) rôle(s) personnalisé(s) au compte autorisé New Relic. + +### Liste des autorisations [#list-permissions] + + + + Toute intégration nécessite l'autorisation suivante : + + * `monitoring.timeSeries.list` + * `serviceusage.services.use` + + + + Pour certaines intégrations GCP, New Relic aura également besoin des autorisations suivantes, principalement pour collecter des balises et d'autres attributs. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ intégration + + Autorisations +
+ [Moteur d'applications Google](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-app-engine-monitoring-integration) + + n/a ; Google App Engine ne nécessite pas d'autorisations supplémentaires. +
+ [Google BigQuery](/docs/google-bigquery-integration) + + * `bigquery.datasets.get` + * `bigquery.tables.get` + * `bigquery.tables.list` +
+ [Google Cloud Functions](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-functions-monitoring-integration) + + * `cloudfunctions.functions.list` +
+ [Google Cloud Load Balancing](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-load-balancing-monitoring-integration) + + n/a ; Google Cloud Load Balancing ne nécessite pas d'autorisations supplémentaires. +
+ [Pub/Sub sur Google Cloud](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-pubsub-monitoring-integration) + + * `pubsub.subscriptions.get` + * `pubsub.subscriptions.list` + * `pubsub.topics.get` + * `pubsub.topics.list` +
+ [Clé de Google Cloud](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-spanner-monitoring-integration) + + * `spanner.instances.list` + * `spanner.databases.list` + * `spanner.databases.getDdl` +
+ [Google Cloud SQL](/docs/google-cloud-sql-monitoring-integration) + + `cloudsql.instances.list` +
+ [Stockage Google Cloud](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-storage-monitoring-integration) + + `storage.buckets.list` +
+ [Moteur de calcul Google](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-app-engine-monitoring-integration) + + * `compute.instances.list` + * `compute.disks.get` + * `compute.disks.list` +
+ [Moteur Kubernetes de Google](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-kubernetes-engine-monitoring-integration) + + `container.clusters.list` +
+
+ + + Pour pouvoir voir la liste des projets que vous pouvez lier à New Relic via l'UI, votre compte de service autorisé New Relic doit disposer des autorisations suivantes : + + * `resourcemanager.projects.get` + + * `monitoring.monitoredResourceDescriptors.list` + + Si vous ne souhaitez pas accorder au compte autorisé New Relic les autorisations nécessaires au processus de liaison via l'UI, vous disposez des options suivantes : + + * Affectez initialement le rôle `Role Viewer` ou `Monitoring Viewer` au compte autorisé pour lier les projets Google Cloud à New Relic via l'UI. Une fois les projets liés, attribuez un rôle personnalisé Google Cloud au compte autorisé. + + * Utilisez [New Relic NerdGraph](/docs/apis/graphql-api/get-started/introduction-new-relic-nerdgraph) pour lier des projets Google Cloud à New Relic. Il ne s’agit pas ici de lister les projets visibles. Cependant, vous devez connaître le `id` du projet que vous souhaitez monitorer. Pour plus d'informations, consultez le [didacticiel API d'intégration cloud NerdGraph GraphiQL](/docs/apis/graphql-api/tutorials/nerdgraph-graphiql-cloud-integrations-api-tutorial). + +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/get-started/introduction-google-cloud-platform-integrations.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/get-started/introduction-google-cloud-platform-integrations.mdx new file mode 100644 index 00000000000..1a39ccf7116 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/get-started/introduction-google-cloud-platform-integrations.mdx @@ -0,0 +1,29 @@ +--- +title: Introduction à l'intégration Google Cloud Platform +tags: + - Integrations + - Google Cloud Platform integrations + - Get started +metaDescription: Google Cloud Platform integrations let you monitor your GCP data in New Relic. +freshnessValidatedDate: never +translationType: machine +--- + +L'intégration de [New Relic Infrastructure](/docs/infrastructure/new-relic-infrastructure/getting-started/introduction-new-relic-infrastructure) monitore les performances des produits et services populaires. L'intégration de Google Cloud Platform (GCP) de New Relic vous permet de monitorer vos données GCP dans plusieurs fonctionnalités de New Relic. + +## Connecter GCP et New Relic [#connect] + +Afin d'obtenir des données GCP, suivez les procédures standard pour [connecter votre service GCP à New Relic](/docs/infrastructure/gcp-integrations). + +## Afficher vos données GCP [#insights] + +Une fois le processus de configuration suivi, les données de votre compte Google Cloud Platform seront directement transmises à New Relic. + +Pour afficher vos données GCP : + +1. Allez à \*\*[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities). +2. Recherchez **Google Cloud Platform** et cliquez sur la tuile. + +Vous pouvez afficher et réutiliser la requête NRQL à la fois dans le dashboard préconfiguré et dans le dashboard **Events explorer**. Cela vous permet d'adapter Requête à vos besoins spécifiques. + +événement, dashboard et autres données sont disponibles pour tous les services dans New Relic. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations.mdx new file mode 100644 index 00000000000..0f8590014dd --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/getting-started/polling-intervals-gcp-integrations.mdx @@ -0,0 +1,174 @@ +--- +title: intervalle d'interrogation pour l'intégration GCP +tags: + - Integrations + - Google Cloud Platform integrations + - Get started +metaDescription: Understand polling intervals for each of your New Relic GCP integrations. +freshnessValidatedDate: never +translationType: machine +--- + +L'intégration GCP de New Relic interroge vos services GCP selon un intervalle d'interrogation qui varie en fonction [de l'intégration](#manage-polling). Chaque intervalle d’interrogation par New Relic se produit pour chaque entité GCP. + +## Intervalle d'interrogation de New Relic [#manage-polling] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Intégration GCP + + Intervalle d'interrogation de New Relic + + Résolution +
+ [Moteur d'application](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-app-engine-monitoring-integration) + + 5 minutes + + 1 point de données par minute +
+ [BigQuery](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-bigquery-monitoring-integration) + + 5 minutes + + La résolution de cette intégration varie. Consultez [les données métriquesBigQuery ](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-bigquery-monitoring-integration#metrics)pour plus d'informations. +
+ [Fonctions Cloud](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-functions-monitoring-integration) + + 5 minutes + + 1 point de données par minute +
+ [Équilibrage de charge dans le cloud](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-load-balancing-monitoring-integration) + + 5 minutes + + 1 point de données par minute +
+ [Pub/Abonnement dans le Cloud](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-pubsub-monitoring-integration) + + 5 minutes + + 1 point de données par minute +
+ [Clé à nuage](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-spanner-monitoring-integration) + + 5 minutes + + 1 point de données par minute +
+ [Cloud SQL](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-sql-monitoring-integration) + + 5 minutes + + 1 point de données par minute +
+ [Stockage dans le Cloud](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-cloud-storage-monitoring-integration) + + 5 minutes + + 1 point de données par minute +
+ [calculer le moteur](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-app-engine-monitoring-integration) + + 5 minutes + + 1 point de données par minute +
+ [Moteur Kubernetes](/docs/integrations/google-cloud-platform-integrations/gcp-integrations-list/google-kubernetes-engine-monitoring-integration) + + 5 minutes + + 1 point de données par minute +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/troubleshooting/gcp-integration-api-authentication-errors.mdx b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/troubleshooting/gcp-integration-api-authentication-errors.mdx new file mode 100644 index 00000000000..163a13ec794 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/google-cloud-platform-integrations/troubleshooting/gcp-integration-api-authentication-errors.mdx @@ -0,0 +1,31 @@ +--- +title: 'Intégration GCP : erreurs d''authentification API' +type: troubleshooting +tags: + - Integrations + - Google Cloud Platform integrations + - Troubleshooting +metaDescription: Troubleshooting procedures if you see API authentication errors when integrating Google Cloud Platform services with New Relic infrastructure monitoring. +freshnessValidatedDate: never +translationType: machine +--- + +## Problème + +Vous souhaitez [intégrer vos services Google Cloud Platform (GCP)](/docs/introduction-google-cloud-platform-integrations) à New Relic, mais vous constatez des erreurs d'authentification API. + +## Solution + +Pour résoudre le problème : + +1. Allez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > GCP**. +2. Depuis la page de votre compte GCP, sélectionnez **Reauthorize New Relic**. +3. Suivez les procédures standard pour [connecter vos services GCP à New Relic](/docs/infrastructure/google-cloud-platform-integrations/get-started/connect-google-cloud-platform-services-new-relic/#connect). + +## Cause + +Les raisons courantes de cette erreur incluent : + +* L'autorisation pour New Relic d'utiliser les API GCP a été révoquée manuellement par l'utilisateur à partir de l'application de gestion de compte Google. +* L'autorisation pour New Relic d'utiliser les API GCP n'inclut pas une ou plusieurs des autorisations ([étendues Google OAuth](https://developers.google.com/identity/protocols/googlescopes)) nécessaires pour interroger une ou plusieurs des API GCP. +* L'autorisation pour New Relic d'utiliser les API GCP a expiré. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/get-started/introduction-host-integrations.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/get-started/introduction-host-integrations.mdx new file mode 100644 index 00000000000..35366655f6f --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/get-started/introduction-host-integrations.mdx @@ -0,0 +1,47 @@ +--- +title: Introduction à l'intégration sur hôte +tags: + - Integrations + - On-host integrations + - Get started +metaDescription: 'An introduction to New Relic on-host infrastructure integrations, which instrument and report data from various third-party services.' +freshnessValidatedDate: never +translationType: machine +--- + +Notre intégration sur hôte vous permet de monitorer un assortiment de services tiers. + +## Qu’est-ce que l’intégration sur hôte ? [#overview] + +Chez New Relic, **on-host integrations** est ce que nous appelons notre intégration qui fonctionne en tandem avec notre agent infrastructure . Ces intégrations collectent des données à partir des services pris en charge et utilisent l'agent infrastructure pour envoyer ces données à New Relic. + +Certaines de nos intégrations sur hôte sont construites à l'aide [de notre intégration Flex ](/docs/infrastructure/host-integrations/host-integrations-list/flex-integration-tool-build-your-own-integration), que vous pouvez également utiliser pour créer votre propre intégration personnalisée légère. + +## Données rapportées [#data] + +intégration sur hôte rapport métriques et données d'inventaire. Certaines intégrations ont la possibilité d'activer les rapports log . Les détails sur les données rapportées se trouvent dans les documents spécifiques à chaque intégration. + +## Démarrer [#get-started] + +Pour commencer l'intégration sur hôte : Si vous avez déjà New Relic, allez sur la [page**Integrations & Agents** ](https://one.newrelic.com/marketplace)et recherchez le service que vous souhaitez monitorer. + +Ou, vous pouvez : + +1. Parcourez la liste des intégrations dans cette section. +2. Passez en revue les exigences d’une intégration et suivez les procédures pour l’installer et la configurer. + +Pour parcourir toutes les intégrations, consultez notre [pageInstant Observability ](https://newrelic.com/instant-observability). + +## Caractéristiques [#features] + +Après avoir installé et activé une intégration, vous pourrez : + +* [Filtrez et analysez](/docs/infrastructure/integrations/find-use-infrastructure-integration-data) les métriques et les données configuration dans [UI de l'infrastructure](/docs/infrastructure/new-relic-infrastructure/getting-started/introduction-new-relic-infrastructure). +* Créez [des requêtes et des graphiques personnalisés](/docs/using-new-relic/data/understand-data/query-new-relic-data) de vos données d'intégration. +* Créez [une condition d'alerte](/docs/alerts/new-relic-alerts/getting-started/alerts-glossary#alert-condition) pour monitorer les problèmes liés aux performances de votre service + +## configuration à distance et multi-locataire du moniteur [#multiple-instances] + +Certaines configurations peuvent utiliser des éléments tiers, tels que la base de données, qui résident dans des hôtes distants et non accessibles. Notre intégration peut récupérer des données à partir d'hôtes ou de serveurs locaux et distants, assurant une monitoring continue de votre service. Ils prennent également en charge la configuration en cluster multi-locataire. En abstrayant le service de l'hôte, plusieurs entités peuvent être monitorées en tant qu'instance distante. + +Pour activer monitoring à distance et le multi-hébergement dans l'intégration Apache, Cassandra, MySQL, NGINX et Redis , utilisez le [paramètre`remote_monitoring` ](/docs/infrastructure/host-integrations/understand-use-data/remote-monitoring-host-integrations). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/active-directory-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/active-directory-integration.mdx new file mode 100644 index 00000000000..44ec0799a66 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/active-directory-integration.mdx @@ -0,0 +1,1092 @@ +--- +title: Intégration d'Active Directory +tags: + - Active Directory integration + - New Relic integrations +metaDescription: Install our Active Directory integration to monitor the health of your environment. +freshnessValidatedDate: never +translationType: machine +--- + +Avec notre intégration Active Directory , vous pouvez facilement monitorer la santé de votre environnement de services d'annuaire et alerter de manière proactive sur les problèmes potentiels. + +Conçue avec notre agent d'infrastructure, l'intégration Active Directory vous offre un ensemble de et prédéfinis qui vous permettent d'afficher vos données de performances les plus critiques, le tout en un seul endroit. + +A screenshot of a dashboard with Active Directory performance metrics. + +
+ Après avoir configuré l'intégration Active Directory avec New Relic, visualisez vos données dans un dashboard comme celui-ci, prêt à l'emploi. +
+ +Pour tirer le meilleur parti de cette page, sélectionnez la méthode d'installation adaptée à votre environnement. Vous avez besoin d'un [compte New Relic](https://newrelic.com/signup) avant de commencer le processus d'installation. + + + **Utilisez le guide d'installation pour voir rapidement vos données dans l'UI** + + L'installation guidée est une seule commande CLI que vous pouvez exécuter pour monitorer vos services Active Directory . C'est une bonne option pour les petites organisations ou pour quiconque souhaite tester New Relic. + + + + Installation guidée + + + + Pour une solution plus permanente et évolutive, nous recommandons l'installation manuelle standard de l'intégration : continuez à lire pour savoir comment procéder. + + + + + ## Installer l' agent d'infrastructure [#infra] + + Pour utiliser l’intégration Active Directory , vous devez d’abord [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L'agent infrastructure monitore l'hôte lui-même, tandis que l'intégration que vous installerez à l'étape suivante étend votre monitoring avec des données spécifiques à Active Directory. + + + + ## Cloner le référentiel d'intégration Active Directory (référentiel) [#clone] + + Exécutez la commande suivante dans votre CLI pour cloner le référentiel d’intégration New Relic Active Directory : + + ```bash + git clone https://github.com/newrelic/newrelic-active-directory-integration.git + ``` + + + + ## Copier les fichiers de configuration [#copy-config] + + Copiez les fichiers de configuration pertinents du référentiel vers l'agent, en remplaçant `$ROOT_PATH` par le chemin où vous avez cloné le référentiel : + + ```powershell + # integrations.d + Copy-Item -Path "$ROOT_PATH\newrelic-active-directory-integration\integrations.d\*" -Destination "C:\Program Files\New Relic\newrelic-infra\integrations.d" -Recurse + + # logging.d + Copy-Item -Path "$ROOT_PATH\newrelic-active-directory-integration\logging.d\*" -Destination "C:\Program Files\New Relic\newrelic-infra\logging.d" -Recurse + ``` + + + + ## Installer l'intégration [#install-io] + + Installez le [quickstartActive Directory ](https://newrelic.com/instant-observability/active-directory)à partir du catalogue d’ I/O New Relic pour ajouter le dashboard et les alertes pertinents. + + + + ## Rechercher et utiliser des données [#find-date] + + La collecte de télémétrie à partir de Active Directory dépend de divers fichiers de configuration et de script situés dans la structure de répertoire de l'agent d'infrastructure comme ceci : + + ``` + C:\Program Files\New Relic\newrelic-infra\ + ├── integrations.d + │   ├── windows-active-directory-performance-counters.ps1 + │   ├── windows-active-directory-performance-counters.yml + │   ├── windows-active-directory-replication-checks.yml + │   ├── windows-active-directory-replication-failures.ps1 + │   ├── windows-active-directory-replication-partners.ps1 + │   └── windows-active-directory-services.yml + └── logging.d + └── windows-active-directory.yml + ``` + + Chacun de ces fichiers fonctionne ensemble pour présenter une empreinte d’observabilité complète. La télémétrie résultante dans New Relic se compose de données Métriques, d'événements et de logs. + + + +## Détails de l'événement + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ + **EVENT ATTRIBUTE** + + + + **COUNTER NAME** + + + + **DESCRIPTION** + +
+ `addressBookClientSessions` + + `\NTDS\AB Client Sessions` + + Nombre de sessions client du carnet d'adresses connectées +
+ `inboundFullSyncObjectsRemaining` + + `\NTDS\DRA Inbound Full Sync Objects Remaining` + + Le nombre d'objets restant jusqu'à ce que la synchronisation complète soit terminée +
+ `draInbound` + + `\NTDS\DRA Inbound Values (DNs only)/sec` + + Le nombre de valeurs de propriétés d'objet reçues des partenaires de réplication entrants qui sont des noms distinctifs qui font référence à d'autres objets +
+ `draOutbound` + + `\NTDS\DRA Outbound Values (DNs only)/sec` + + Le nombre de valeurs de propriétés d'objet contenant des noms distinctifs envoyés aux partenaires de réplication sortants +
+ `draPendingReplicationSync` + + `\NTDS\DRA Pending Replication Synchronizations` + + Le nombre de synchronisations d'annuaires en file d'attente pour ce serveur mais pas encore traitées +
+ `directoryReadsPerSec` + + `\NTDS\DS Directory Reads/sec` + + Le nombre de lectures de répertoires par seconde +
+ `directoryWritesPerSec` + + `\NTDS\DS Directory Writes/sec` + + Le nombre d'écritures dans le répertoire par seconde +
+ `directoryNotifyQueueSize` + + `\NTDS\DS Notify Queue Size` + + Le nombre de notifications de mise à jour en attente qui sont en file d'attente mais pas encore transmises aux clients +
+ `directoryThreadsInUse` + + `\NTDS\DS Threads in Use` + + Le nombre actuel de threads utilisés par le service d'annuaire +
+ `ldapActiveThreads` + + `\NTDS\LDAP Active Threads` + + Le nombre actuel de threads utilisés par le sous-système LDAP du service d'annuaire local +
+ `ldapBindTime` + + `\NTDS\LDAP Bind Time` + + Le temps (en millisecondes) nécessaire pour terminer la dernière liaison LDAP +
+ `ldapClientSessions` + + `\NTDS\LDAP Client Sessions` + + Le nombre de sessions client LDAP actuellement connectées +
+ `ldapSearchesPerSec` + + `\NTDS\LDAP Searches/sec` + + La vitesse à laquelle les clients LDAP effectuent des opérations de recherche +
+ `ldapSuccessfulBindsPerSec` + + `\NTDS\LDAP Successful Binds/sec` + + Le nombre de liaisons LDAP par seconde +
+ `contextSwitchesPerSec` + + `\System\Context Switches/sec` + + Le taux combiné auquel tous les processeurs de l'ordinateur passent d'un thread à un autre +
+ `processorQueueLength` + + `\System\Processor Queue Length` + + Le nombre de threads en attente d'exécution dans la file d'attente +
+ +## Services Windows [#windows-services] + +La collecte des services Windows Active Directory est réalisée via l'intégration native des services Windows à l'aide de ce fichier de configuration : + +``` +windows-active-directory-services.yml +``` + +Les résultats de cette collection sont stockés sous forme de métriques dimensionnelles avec l'étiquette décorée : `label.primary_app = 'active_directory'`. + +## détails métriques + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ + **SERVICE NAME** + + + + **DESCRIPTION** + +
+ `ADWS` + + Active Directory Services Web +
+ `DFS` + + Système de fichiers distribués +
+ `DFSR` + + Réplication DFS +
+ `DNS` + + Serveur DNS +
+ `Dnscache` + + Client DNS +
+ `IsmServ` + + Messagerie intersite +
+ `kdc` + + Centre de distribution de clés Kerberos +
+ `lanmanserver` + + Serveur +
+ `lanmanworkstation` + + Poste de travail +
+ `Netlogon` + + Connexion au réseau +
+ `NTDS` + + Services de domaine Active Directory +
+ `RpcSs` + + Appel de procédure à distance (RPC) +
+ `SamSs` + + Responsable des comptes de sécurité +
+ `W32Time` + + Heure Windows +
+ +## Détails de l'événement + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ + **EVENT NAME** + + + + **ATTRIBUTE** + + + + **DESCRIPTION** + +
+ `activeDirectoryReplicationFailures` + + `failureCount` + + Entier indiquant le nombre total d'échecs de réplication survenus sur le contrôleur de domaine spécifié. +
+ `activeDirectoryReplicationFailures` + + `failureType` + + Représentation sous forme de chaîne du dernier type d’échec de réplication rencontré par le contrôleur de domaine spécifié. +
+ `activeDirectoryReplicationFailures` + + `firstFailureTime` + + horodatage (`MM/dd/yyyy h:mm:ss tt`) chaîne indiquant la première défaillance observée sur le contrôleur de domaine spécifié. +
+ `activeDirectoryReplicationFailures` + + `lastError` + + Entier indiquant le dernier code d'erreur reçu pour un échec de réplication sur le contrôleur de domaine spécifié. +
+ `activeDirectoryReplicationFailures` + + `server` + + Nom de chaîne du contrôleur de domaine où l’échec de réplication s’est produit. +
+ `activeDirectoryReplicationPartners` + + `lastReplicationAttempt` + + horodatage (`MM/dd/yyyy h:mm:ss tt`) chaîne indiquant la dernière tentative de réplication entre le serveur et le partenaire. +
+ `activeDirectoryReplicationPartners` + + `lastReplicationSuccess` + + horodatage (`MM/dd/yyyy h:mm:ss tt`) chaîne indiquant la dernière réplication réussie entre le serveur et le partenaire. +
+ `activeDirectoryReplicationPartners` + + `partner` + + Nom abrégé du partenaire distant pour la réplication. +
+ `activeDirectoryReplicationPartners` + + `server` + + Nom abrégé du serveur local pour +
+ +## Log des événements Windows [#event-logs] + +La collecte de Active Directory événements Windows est effectuée avec le redirecteur de logintégré sur l'agent infrastructure à l'aide de ce fichier configuration : + +``` +windows-active-directory.yml +``` + +Les résultats de cette collection sont stockés sous forme de log avec l'étiquette décorée : `logtype = 'active_directory'`. + +## détails du log + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ + **CHANNEL** + + + + **EVENT ID** + + + + **DESCRIPTION** + +
+ Sécurité + + `4609` + + Windows s'arrête +
+ Sécurité + + `4616` + + L'heure du système a été modifiée +
+ Sécurité + + `4625` + + Un compte n'a pas pu se log +
+ Sécurité + + `4648` + + Une connexion a été tentée à l'aide d'informations d'identification explicites +
+ Sécurité + + `4649` + + Une connexion de relecture a été détectée +
+ Sécurité + + `4950` + + Une association de sécurité en mode principal IPsec a été établie +
+ Sécurité + + `4697` + + Un service a été installé dans le système +
+ Sécurité + + `4713` + + La politique Kerberos a été modifiée +
+ Sécurité + + `4714` + + La politique de récupération des données cryptées a été modifiée +
+ Sécurité + + `4719` + + La politique d'audit du système a été modifiée +
+ Sécurité + + `4720` + + Un compte utilisateur a été créé +
+ Sécurité + + `4723` + + Une tentative a été effectuée pour modifier le mot de passe d'un compte +
+ Sécurité + + `4724` + + Une tentative a été effectuée pour réinitialiser le mot de passe d'un compte +
+ Sécurité + + `4725` + + Un compte utilisateur a été désactivé +
+ Sécurité + + `4726` + + Un compte utilisateur a été supprimé +
+ Sécurité + + `4738` + + Un compte utilisateur a été modifié +
+ Sécurité + + `4739` + + La politique du domaine a été modifiée +
+ Sécurité + + `4740` + + Un compte utilisateur a été verrouillé +
+ Sécurité + + `4781` + + Un compte informatique a été créé +
+ Système + + `1083` + + Le numéro de version du descripteur de sécurité n'a pas pu être déterminé +
+ Système + + `1202` + + Les politiques de sécurité ont été propagées avec avertissement. 0x534 : Aucune modélisation entre les noms de compte et les identifiants de sécurité n'a été effectuée +
+ Système + + `1265` + + La tentative d'établissement d'un lien de réplication pour la partition de répertoire inscriptible suivante a échoué +
+ Système + + `1311` + + Le vérificateur de cohérence des connaissances (KCC) a détecté des problèmes avec la partition de répertoire suivante +
+ Système + + `1388` + + Au cours des \[nombre] derniers jours, des erreurs de réplication dans une ou plusieurs partitions d'annuaire ont entraîné la désactivation de la réplication pour le contexte de dénomination spécifié sur le contrôleur de domaine actuel +
+ Système + + `1645` + + Active Directory Les services du domaine ont détecté que le domaine utilise toujours le mot de passe par défaut pour le compte « administrateur » +
+ Système + + `5805` + + La session configurée à partir de l'ordinateur \[nom de l'ordinateur] n'a pas pu s'authentifier +
+ Système + + `5807` + + Au cours des \[nombre] derniers jours, il y a eu quelques erreurs de réplication dans la forêt. Il peut y avoir des problèmes de réseau ou de connectivité dans la forêt +
+ +## Vérifiez le code source [#source-code] + +Cette intégration est un logiciel open source. Cela signifie que vous pouvez [parcourir son code source](https://github.com/newrelic/newrelic-active-directory-integration) et envoyer des améliorations, ou créer votre propre fork et le construire. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/aerospike-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/aerospike-integration.mdx new file mode 100644 index 00000000000..89b00f2beef --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/aerospike-integration.mdx @@ -0,0 +1,106 @@ +--- +title: Intégration de la plateforme Aerospike +tags: + - New Relic integrations + - Aerospike +metaDescription: Use New Relic's infrastructure monitoring to get a dashboard with metrics from your Aerospike platform. +freshnessValidatedDate: never +translationType: machine +--- + +Notre intégration Aerospike monitore les performances de votre plateforme de données Aerospike, vous aidant à diagnostiquer les problèmes de votre application et à optimiser votre code. Notre intégration Aerospike vous offre un dashboard prédéfini avec les métriques les plus importantes de votre application Aerospike. + +A screenshot depicting an Aerospike pre-built dashboard + +
+ Après avoir configuré l'intégration avec New Relic, visualisez vos données dans un dashboard comme celui-ci, dès la sortie de la boîte. +
+ + + + ## Installer l' agent d'infrastructure [#infra] + + Pour utiliser l’intégration Aerospike, vous devez d’abord [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L'agent infrastructure monitore l'hôte lui-même, tandis que l'intégration que vous installerez à l'étape suivante étend votre monitoring avec des données spécifiques à Aerospike. + + + + ## Installer l'intégration Aerospike + + 1. Pour installer nri-aerospike, utilisez la commande suivante : + + ```bash + sudo apt-get install nri-aerospike + ``` + + 2. Vérifiez que `nri-aerospike` a été installé avec succès par : + + * Vérification que **Exporter** est installé dans le répertoire `/var/db/newrelic-infra/newrelic-integrations/bin` . + * Vérification d'un fichier de configuration dans le répertoire `/etc/newrelic-infra/integrations.d` + + + + ## Configurer l’intégration : + + 1. Renommez le fichier de configuration d'exemple de `aerospike-config.yml.sample` à `aerospike-config.yml`: + + ```shell + sudo cp aerospike-config.yml.sample aerospike-config.yml + ``` + + 2. Modifiez le fichier de configuration selon vos besoins. Voici un exemple de base d’un fichier de configuration : + + ```yml + integrations: + - name: nri-aerospike + config: + # API URL of the aerospike service + aerospike_db_host: localhost + aerospike_db_port: 3000 + + # Port to expose scrape endpoint on, If this is not provided a random port will be used to launch the exporter + exporter_port: 9145 + + # Cluster name is used on the aerospike.prometheus.json.template - + # all the metrics captured by nri-prometheus will be categorized under this cluster name + aerospike_cluster_name: YOUR_DESIRED_CLUSTER_NAME + scrape_timeout: 5s + + label_type: development + label_source: aerospike + + exporter_files_path: /tmp + ``` + + Après avoir configuré avec succès `nri-aerospike`, vous pouvez voir la liste des métriques du moniteur Aerospike dans `http://localhost:9145/metrics`. + + + + ## Trouvez vos données [#find-data] + + Pour obtenir votre dashboard Aerospike : + + 1. De [one.newrelic.com](https://one.newrelic.com), aller à la [page**Integrations & Agents** ](https://one.newrelic.com/marketplace). + 2. Cliquez sur **Dashboards**. + 3. Dans la barre de recherche, tapez `Aerospike`. + 4. Le dashboard Aerospike devrait apparaître. Cliquez dessus pour l'installer. + + Votre dashboard Aerospike est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l'utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + Cette intégration rapporte des données sous la forme de notre [agent d'infrastructure](/docs/infrastructure/manage-your-data/data-instrumentation/default-infrastructure-monitoring-data/#infrastructure-events). + + Voici un exemple de requête NRQL vérifiant le pourcentage de capacité mémoire libre sur l'espace de nommage : + + ```sql + FROM Metric + SELECT latest (aerospike_namespace_memory_free_pct) + ``` + + + +## Quelle est la prochaine étape ? [#whats-next] + +Pour en savoir plus sur l'interrogation de vos données et la création de dashboards personnalisés, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) +* [Introduction au dashboard personnalisé](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/ansible-controller-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/ansible-controller-integration.mdx new file mode 100644 index 00000000000..a1a14709d86 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/ansible-controller-integration.mdx @@ -0,0 +1,167 @@ +--- +title: Intégration du contrôleur d'automatisation Red Hat Ansible +tags: + - Ansible controller integration + - Red Hat Ansible Automation Controller + - New Relic integrations +metaDescription: Install our Ansible Automation Controller dashboards and see your Ansible data in New Relic. +freshnessValidatedDate: never +translationType: machine +--- + +Avec notre dashboard de plateforme Red Hat Ansible Automation, vous pouvez facilement suivre et visualiser le log de votre plateforme Ansible Automation, garder un œil sur vos tâches et monitorer la mémoire instance . + +Conçue avec notre agent d'infrastructure et notre intégration Prometheus OpenMetrics, l'intégration de la plateforme d'automatisation Ansible vous offre un ensemble de prédéfinis qui vous permettent d'afficher vos données de requête les plus critiques, le tout en un seul endroit. + +A screenshot depicting the Ansible Controller dashboard + +
+ Après avoir configuré l'intégration avec New Relic, visualisez vos données dans un dashboard comme celui-ci, dès la sortie de la boîte. +
+ +## Installer l' agent d'infrastructure [#infra] + +L'agent New Relic Infrastructure est la base pour intégrer les données de votre plateforme Ansible Automation dans New Relic. Si vous ne l’avez pas déjà fait, installez l’agent en utilisant l’une de ces options : + +* Notre [guide d'installation](https://one.newrelic.com/marketplace?state=15321ec0-7cd8-0c04-52bf-7b65778f2e8c) est un outil CLI qui inspecte votre système et installe l'agent infrastructure aux côtés de l'agent monitoring des applications qui fonctionne le mieux pour votre système. Pour en savoir plus sur le fonctionnement de notre guide d'installation, consultez notre [aperçu du guide d'installation](/docs/infrastructure/host-integrations/installation/new-relic-guided-install-overview). +* Si vous préférez installer notre agent d'infrastructure manuellement, vous pouvez suivre un tutoriel d' installation manuelle pour [Linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux), [Windows](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows/) ou [macOS](/docs/infrastructure/install-infrastructure-agent/macos-installation/install-infrastructure-monitoring-agent-macos/). + +## Intégrer la plateforme d'automatisation Red Hat Ansible avec New Relic [#integrate] + +Une fois installé, l'agent d'infrastructure peut ingérer les données de votre application et les envoyer à New Relic, mais vous devez toujours intégrer (ou établir une ligne de communication) entre l'agent et votre application. Une fois intégré, vous pouvez démarrer avec une solution monitoring prête à l'emploi pour votre application de plateforme Ansible Automation. + + + + Une fois connecté à la plateforme Ansible Automation, accédez à la section **Users**, sélectionnez **admin** puis ajoutez un **token** à l'utilisateur. Copiez le jeton et enregistrez-le dans le chemin souhaité. + + Voici un exemple de jeton : + + Créez un fichier nommé « bearer\_token\_file » dans le chemin souhaité. + + ```bash + touch /home/ansible-automation-patform/bearer_token_file + + ``` + + Et collez votre jeton dans le fichier créé. + + ```bash + nano /home/ansible-automation-platform/bearer_token_file + + ``` + + Enregistrer et quitter l'éditeur nano + + + + Tout d’abord, créez un fichier nommé « nri-prometheus-config.yml » dans le chemin ci-dessous : + + Chemin: `/etc/newrelic-infra/integrations.d/nri-prometheus-config.yml` + + Ensuite, utilisez notre [modèleconfiguration ](https://github.com/newrelic/nri-prometheus/blob/main/configs/nri-prometheus-config.yml.sample)pour mettre à jour le fichier créé nommé « nri-prometheus-config.yml ». + + Maintenant, mettez à jour les champs répertoriés ci-dessous : + + 1. `cluster_name: "YOUR_DESIRED_CLUSTER_NAME"` + 2. `bearer_token_file: "BEARER_TOKEN_FILE_PATH"` + 3. `urls: ["https://YOUR_HOST_IP:443/api/v2/metrics/?format=txt"]` + 4. `Insecure_skip_verify: true` + + Votre fichier `nri-prometheus-config.yml` devrait ressembler à ceci : + + ```yml + integrations: + - name: nri-prometheus + config: + # When standalone is set to false nri-prometheus requires an infrastructure agent to work and send data. Defaults to true + standalone: false + + # When running with infrastructure agent emitters will have to include infra-sdk + emitters: infra-sdk + + # The name of your cluster. It's important to match other New Relic products to relate the data. + cluster_name: "YOUR_DESIRED_CLUSTER_NAME" + bearer_token_file: "BEARER_TOKEN_FILE_PATH" + + targets: + - description: Metrics of Ansible Automation Platform can be seen on the below url + urls: ["https://YOUR_HOST_IP:443/api/v2/metrics/?format=txt"] + use_bearer: true + # tls_config: + # ca_file_path: "/etc/etcd/etcd-client-ca.crt" + # cert_file_path: "/etc/etcd/etcd-client.crt" + # key_file_path: "/etc/etcd/etcd-client.key" + + # Whether the integration should run in verbose mode or not. Defaults to false. + verbose: false + + # Whether the integration should run in audit mode or not. Defaults to false. + # Audit mode logs the uncompressed data sent to New Relic. Use this to log all data sent. + # It does not include verbose mode. This can lead to a high log volume, use with care. + audit: true + + # The HTTP client timeout when fetching data from endpoints. Defaults to 30s. + # scrape_timeout: "30s" + + # Length in time to distribute the scraping from the endpoints. + scrape_duration: "5s" + + # Number of worker threads used for scraping targets. + # For large clusters with many (>400) endpoints, slowly increase until scrape + # time falls between the desired `scrape_duration`. + # Increasing this value too much will result in huge memory consumption if too + # many metrics are being scraped. + # Default: 4 + # worker_threads: 4 + + # Whether the integration should skip TLS verification or not. Defaults to false. + insecure_skip_verify: true + + timeout: 10s + + ``` + + + + Vous pouvez utiliser notre [transfert de log](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent) pour transférer les logs de la plateforme Ansible Automation vers New Relic. + + Sur les machines Linux, votre fichier de log nommé `logging.yml` doit être présent dans le chemin ci-dessous : + + Chemin: `/etc/newrelic-infra/logging.d/` + + Si vous ne voyez pas votre fichier de log dans le chemin ci-dessus, vous devrez alors créer un fichier de log en suivant la documentation de transfert de logci-dessus. + + Pour créer le fichier de log, ajoutez le script ci-dessous au fichier logging.yml : + + ```yml + - name: ansible-tower.log + file: /var/log/tower/tower.log + attributes: + logtype: ansible_tower_log + ``` + + + + Avant de pouvoir commencer à lire vos données, utilisez les instructions de notre [documentation sur l'agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/) pour redémarrer votre agent d'infrastructure. + + + + Vous pouvez utiliser cette requête NRQL pour afficher les données de votre plateforme d'automatisation Ansible : + + ```sql + FROM Metric SELECT latest(awx_pending_jobs_total) AS 'Pending Jobs', latest(awx_running_jobs_total) AS 'Running Jobs' + ``` + + + +## Voir les métriques d'Ansible Automation Controller dans un dashboard [#dash] + +Avec l'agent d'infrastructure installé et instrumenté avec votre application, vous pouvez visualiser vos données brutes dans notre **Metrics & events**. Notre dashboard par défaut transforme ces données brutes en graphiques et diagrammes, qui offrent une vue d'ensemble de la santé de votre système. Pour installer notre dashboard par défaut, accédez à notre Ansible [page d'observation instantanée](https://newrelic.com/instant-observability/ansible-automation-controller) Automation Controller ). + +## Quelle est la prochaine étape ? + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage du dashboard ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/apache-druid-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/apache-druid-integration.mdx new file mode 100644 index 00000000000..7ef610ff48c --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/apache-druid-integration.mdx @@ -0,0 +1,286 @@ +--- +title: Intégration Apache Druid +tags: + - Druid integration + - apache druid integration + - New Relic integrations +metaDescription: Use New Relic infrastructure agent to get a dashboard with druid metrics. +freshnessValidatedDate: '2024-04-21T00:00:00.000Z' +translationType: machine +--- + +L'intégration d'Apache Druid avec New Relic améliore votre capacité à monitorer, analyser et optimiser les performances de votre cluster Druid. L'intégration Apache Druid fournit de puissantes fonctionnalités monitoring et d'alerte afin que vous puissiez garantir la fiabilité et l'efficacité de votre plateforme d'analyse basée sur Druid. + +Apache Druid dashboard + +
+ Après avoir configuré l'intégration d'Apache Druid avec New Relic, visualisez vos données dans un dashboard dès la sortie de la boîte. +
+ +## Configurer l'intégration Apache Druid + +Suivez les étapes suivantes pour configurer l’intégration Apache Druid : + + + + ## Installer l' agent d'infrastructure + + Pour utiliser l’intégration Apache Druid, vous devez d’abord [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L'agent infrastructure monitore l'hôte lui-même, tandis que l'intégration Apache Druid étend votre monitoring avec des données spécifiques à votre cluster Druid. + + + + ## exposer les métriques Druid à l'aide de Prometheus Emitter [#Expose] + + 1. Ajoutez `prometheus.emitter` à la fin de la liste de chargement des extensions dans votre fichier `apache-druid-$version/conf/druid/single-server/micro-quickstart/_common/common.runtime.properties` : + + ```ini + druid.extensions.loadList=["druid-hdfs-storage", "druid-kafka-indexing-service", "druid-datasketches", "druid-multi-stage-query", "prometheus-emitter"] + ``` + + 2. Dans les chemins de fichiers répertoriés dans la colonne de gauche, ajoutez l’extrait de code répertorié dans les colonnes de droite. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Chemin de fichier + + Snippet de code +
+ `PATH/TO/broker/runtime.properties` + + ```ini + # Monitoring + druid.monitoring.monitors=["org.apache.druid.java.util.metrics.JvmMonitor"] + druid.emitter=prometheus + druid.emitter.logging.logLevel=info + druid.emitter.prometheus.strategy=exporter + druid.emitter.prometheus.port=19091 + ``` +
+ `PATH/TO/coordinator-overlord/runtime.properties` + + ```ini + # Monitoring + druid.monitoring.monitors=["org.apache.druid.java.util.metrics.JvmMonitor"] + druid.emitter=prometheus + druid.emitter.logging.logLevel=info + druid.emitter.prometheus.strategy=exporter + druid.emitter.prometheus.port=19092 + ``` +
+ `PATH/TO/historical/runtime.properties` + + ```ini + # Monitoring + druid.monitoring.monitors=["org.apache.druid.java.util.metrics.JvmMonitor"] + druid.emitter=prometheus + druid.emitter.logging.logLevel=info + druid.emitter.prometheus.strategy=exporter + druid.emitter.prometheus.port=19093 + ``` +
+ `PATH/TO/middleManager/runtime.properties` + + ```ini + # Monitoring + druid.monitoring.monitors=["org.apache.druid.java.util.metrics.JvmMonitor"] + druid.emitter=prometheus + druid.emitter.logging.logLevel=info + druid.emitter.prometheus.strategy=exporter + druid.emitter.prometheus.port=19094 + ``` +
+ `PATH/TO/router/runtime.properties` + + ```ini + # Monitoring + druid.monitoring.monitors=["org.apache.druid.java.util.metrics.JvmMonitor"] + druid.emitter=prometheus + druid.emitter.logging.logLevel=info + druid.emitter.prometheus.strategy=exporter + druid.emitter.prometheus.port=19095 + ``` +
+
+ + + ## Installer l'extension de l'émetteur Prometheus [#prometheus-emitter-extension] + + 1. Exécutez les commandes suivantes pour créer un dossier nommé `prometheus-emitter` dans le répertoire de dossiers `extensions` de votre configuration Apache Druid : + + ```shell + cd apache-druid-$version/extensions/ + ``` + + ```shell + sudo mkdir prometheus-emitter + ``` + + 2. Accédez au répertoire de téléchargement de druid et exécutez la commande suivante pour créer des fichiers jar que le serveur appelle au démarrage : + ```shell + sudo java \ + -cp "lib/*" \ + -Ddruid.extensions.directory="extensions" \ + -Ddruid.extensions.hadoopDependenciesDir="hadoop-dependencies" \ + org.apache.druid.cli.Main tools pull-deps \ + --no-default-hadoop \ + -c "org.apache.druid.extensions.contrib:prometheus-emitter:24.0.0" + ``` + + + + ## Configure `nri-prometheus` [#configure] + + 1. Créez un fichier nommé `nri-prometheus-config.yml`: + + ```shell + touch /etc/newrelic-infra/integrations.d/nri-prometheus-config.yml + ``` + + 2. Ajoutez le snippet suivant à votre fichier `nri-prometheus-config.yml` pour activer la capture des données Apache Druid : + + ```yml + integrations: + - name: nri-prometheus + config: + # When standalone is set to false nri-prometheus requires an infrastructure agent to work and send data. Defaults to true + standalone: false + + # When running with infrastructure agent emitters will have to include infra-sdk + emitters: infra-sdk + + # The name of your cluster. It's important to match other New Relic products to relate the data. + cluster_name: "Apache-druid" + + targets: + - description: Secure etcd example + urls: ["http://:19091/metrics","http://:19092/metrics", "http://:19093/metrics","http://:19094/metrics","http://:19095/metrics"] + # tls_config: + # ca_file_path: "/etc/etcd/etcd-client-ca.crt" + # cert_file_path: "/etc/etcd/etcd-client.crt" + # key_file_path: "/etc/etcd/etcd-client.key" + + # Whether the integration should run in verbose mode or not. Defaults to false. + verbose: false + + # Whether the integration should run in audit mode or not. Defaults to false. + # Audit mode logs the uncompressed data sent to New Relic. Use this to log all data sent. + # It does not include verbose mode. This can lead to a high log volume, use with care. + audit: false + + # The HTTP client timeout when fetching data from endpoints. Defaults to "5s" if it is not set. + # This timeout in seconds is passed as well as a X-Prometheus-Scrape-Timeout-Seconds header to the exporters + # scrape_timeout: "5s" + + # Length in time to distribute the scraping from the endpoints. Default to "30s" if it is not set. + scrape_duration: "5s" + + # Number of worker threads used for scraping targets. + # For large clusters with many (>400) endpoints, slowly increase until scrape + # time falls between the desired `scrape_duration`. + # Increasing this value too much will result in huge memory consumption if too + # many metrics are being scraped. + # Default: 4 + # worker_threads: 4 + + # Whether the integration should skip TLS verification or not. Defaults to false. + insecure_skip_verify: false + + timeout: 10s + ``` + + + + ## Transférer le log du druide vers New Relic + + 1. Modifiez le fichier de log nommé `logging.yml` situé au chemin suivant : + + ```shell + cd /etc/newrelic-infra/logging.d + ``` + + 2. Ajoutez le snippet suivant au fichier `logging.yml` : + + ```yml + - name: druid-logs + file: /home//log/*.log + attributes: + logtype: apache-druid + ``` + + + + ## Redémarrer l' agent d'infrastructure [#restart-infra] + + Utilisez les instructions de notre [documentation sur l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/) pour redémarrer votre agent d’infrastructure. Il s’agit d’une commande de base qui devrait fonctionner pour la plupart des gens : + + ```shell + sudo systemctl restart newrelic-infra.service + ``` + + + + ## Consultez les métriques de votre druide dans New Relic [#view-data] + + Une fois la configuration ci-dessus terminée, vous pouvez afficher vos métriques à l'aide de notre modèle dashboard prédéfini. Pour accéder à ce dashboard: + + 1. Rendez-vous sur **[one.newrelic.com](https://one.newrelic.com/) > + Integrations & Agents**. + 2. Cliquez sur l’onglet **Dashboards** . + 3. Dans le champ de recherche, tapez `Apache druid`. + 4. Sélectionnez-le et cliquez sur **Install**. + + Pour instrumenter le quickstart Apache Druid et voir les métriques et les alertes, vous pouvez également suivre notre [pageApache Druid quickstart ](https://newrelic.com/instant-observability/apache-druid)en cliquant sur le bouton `Install now`. + + Voici un exemple de requête pour vérifier la taille moyenne du segment Druid : + + ```sql + SELECT average(druid_segment_size) AS 'MiB' FROM Metric SINCE 30 MINUTES AGO + ``` + +
+ +## Quelle est la prochaine étape ? [#whats-next] + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/apache-hadoop-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/apache-hadoop-monitoring-integration.mdx new file mode 100644 index 00000000000..906025a2ede --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/apache-hadoop-monitoring-integration.mdx @@ -0,0 +1,134 @@ +--- +title: Intégration Apache Hadoop +tags: + - Apache Hadoop integration + - New Relic integrations +metaDescription: Install our Apache Hadoop dashboards and see your Apache Hadoop data in New Relic. +freshnessValidatedDate: '2023-06-28T00:00:00.000Z' +translationType: machine +--- + +Notre intégration Apache Hadoop monitore les performances de votre cluster Hadoop et de vos applications. L'intégration fournit une compréhension approfondie des performances et de la santé Apache Hadoop en fournissant des données sur votre HDFS (Hadoop Distributed File System), les blocs, la charge système, les nœuds de données, NodeManager et les tâches. + +Apache Hadoop dashboard + +
+ Après avoir configuré notre Apache Hadoop, nous vous fournissons un dashboard pour vos métriques Apache Hadoop. +
+ +Suivez les étapes suivantes pour installer l’intégration : + + + + ## Installer l' agent d'infrastructure [#infra] + + Pour utiliser l’intégration Apache Hadoop, vous devez d’abord [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L'agent infrastructure monitore l'hôte lui-même, tandis que l'intégration que vous installerez à l'étape suivante étend votre monitoring avec des données spécifiques à Hadoop. + + + + ## Configurer NRI-Flex pour Apache Hadoop [#integrate] + + Notre intégration flexible est fournie avec l'agent New Relic Infrastructure et est utilisée pour envoyer vos données Apache Hadoop à New Relic. Pour créer un fichier de configuration flexible, suivez ces étapes : + + 1. Créez un fichier nommé `nri-flex-hadoop-config.yml` dans le chemin `/etc/newrelic-infra/integrations.d` . + + 2. Utilisez notre [modèle de configuration](https://github.com/newrelic/nri-flex/blob/master/examples/json-read-cmd-example.yml) pour mettre à jour les champs `EVENT_TYPE` et `YOUR_DOMAIN` dans le fichier créé nommé `nri-flex-hadoop-config.yml`. La valeur sur `event_type` est utilisée pour stocker des métriques sur la NRDB. + + Exemple: + + * `EVENT_TYPE1` peut être mis à jour pour `HadoopResourceManagerSample` + * `EVENT_TYPE2` peut être mis à jour pour `HadoopNameNodeSample` + + Votre fichier `nri-flex-hadoop-config.yml` devrait ressembler à ceci : + + ```yml + integrations: + - name: nri-flex + # interval: 30s + config: + name: hadoopMetrics + apis: + - event_type: EVENT_TYPE1 + commands: + # run any command, you could cat .json file, or run some commands that produce a json output + # the example just calls an API that returns json + - run: curl -s https://YOUR_DOMAIN:9870/jmx #json output is retrieved from this command + - event_type: EVENT_TYPE2 + commands: + - run: curl -s https://YOUR_DOMAIN:8088/jmx?qry=Hadoop:* + ``` + + + + ## Transférer le log Apache Hadoop vers New Relic + + Vous pouvez utiliser notre [transfert de log](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/) pour transférer le log Apache Hadoop vers New Relic. + + 1. Créer un fichier de log nommé `logging.yml` dans `/etc/newrelic-infra/logging.d/` + + 2. Après avoir créé le fichier de log, ajoutez le script suivant au fichier `logging.yml` : + + ```yml + logs: + - name: hadoop_secondarynamenode_log + file: /usr/local/hadoop/logs/hadoop-hadoopuser-secondarynamenode-hadoop-master.log + attributes: + logtype: hadoop_secondarynamenode_logs + - name: hadoop_resourcemanager_log + file: /usr/local/hadoop/logs/hadoop-hadoopuser-resourcemanager-hadoop-master.log + attributes: + logtype: hadoop_hadoop_resourcemanager_logs + - name: hadoop_namenode_log + file: /usr/local/hadoop/logs/hadoop-hadoopuser-namenode-hadoop-master.log + attributes: + logtype: hadoop_namenode_logs + ``` + + + + ## Redémarrez l'agent New Relic Infrastructure + + Avant de pouvoir commencer à utiliser vos données, [redémarrez votre agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/). + + La commande suivante devrait fonctionner pour la plupart des systèmes : + + ```shell + sudo systemctl restart newrelic-infra.service + ``` + + + + ## Trouvez vos données + + Vous pouvez choisir notre modèle dashboard prédéfini nommé `Apache Hadoop` pour monitorer les métriques de votre serveur Apache Hadoop. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com), aller à la page **+ Integrations & Agents** . + 2. Cliquez sur **Dashboards**. + 3. Dans la barre de recherche, tapez `apache hadoop`. + 4. Le Apache Hadoop dashboard devrait apparaître. Cliquez dessus pour l'installer. + + Votre Apache Hadoop dashboard est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l'utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + Voici une requête NRQL pour vérifier les utilisateurs actifs à partir du gestionnaire de ressources : + + ```sql + SELECT latest(activeUsers) + FROM HadoopResourceManagerSample + ``` + + Voici une requête NRQL pour afficher le nombre de clients actifs à partir du nœud nommé : + + ```sql + SELECT latest(numActiveClients) + FROM HadoopNameNodeSample + ``` + + + +## Quelle est la prochaine étape ? + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage du dashboard ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/apache-mesos-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/apache-mesos-integration.mdx new file mode 100644 index 00000000000..c59bb087deb --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/apache-mesos-integration.mdx @@ -0,0 +1,111 @@ +--- +title: Intégration Apache Mesos +tags: + - New Relic integrations + - Apache Mesos integration +metaDescription: Use New Relic infrastructure agent to get a dashboard with metrics from your Apache Mesos. +freshnessValidatedDate: '2024-05-20T00:00:00.000Z' +translationType: machine +--- + +Monitorer le cluster Apache Mesos de manière transparente avec New Relic pour des informations complètes détaillées sur les performances, la santé et l'utilisation des ressources. Suivez les nœuds maîtres et esclaves, monitorez l’exécution des tâches et examinez les métriques du système. + +Apache Mesos dashboard + +
+ Après avoir mis en place notre intégration Apache Mesos, nous vous fournissons un dashboard pour vos métriques Apache Mesos. +
+ + + + ## Installer l' agent d'infrastructure [#infra-install] + + Pour utiliser l’intégration Apache Mesos, vous devez également [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L'agent infrastructure monitore l'hôte lui-même, tandis que l'intégration que vous installerez à l'étape suivante étend votre monitoring avec des données spécifiques Apache Mesos. + + + + ## Activer l'intégration d'Apache Mesos avec nri-flex + + Pour configurer l’intégration Apache Mesos, suivez ces étapes : + + 1. Créez un fichier nommé `nri-apache-mesos-config.yml` dans le répertoire d'intégration : + + ```shell + touch /etc/newrelic-infra/integrations.d/nri-apache-mesos-config.yml + ``` + + 2. Ajoutez le snippet suivant à votre fichier `nri-apache-mesos-config.yml` pour permettre à l'agent de capturer les données Apache Mesos : + + ```yml + integrations: + - name: nri-flex + interval: 30s + config: + name: apacheMesos + apis: + - event_type: apacheMesos + url: http://:5050/metrics/snapshot + ``` + + + + ## Transférer le log Apache Mesos + + Suivez ces étapes pour transférer le log Apache Mesos vers New Relic : + + 1. Modifiez le fichier de log nommé `logging.yml` situé au chemin suivant : + + ```shell + cd /etc/newrelic-infra/logging.d + ``` + + 2. Ajoutez le snippet suivant au fichier `logging.yml`. Remplacez `file` par le Apache chemin d'accès à votre log fichier Mesos si nécessaire : + + ```yml + logs: + - name: apache-mesos.log + file: /var/log/mesos/LOG_FILE_NAME + attributes: + logtype: apache_mesos_log + ``` + + + + ## Redémarrez l'agent New Relic Infrastructure + + Redémarrez votre agent d’infrastructure : + + ```shell + sudo systemctl restart newrelic-infra.service + ``` + + Dans quelques minutes, votre application commencera à envoyer des métriques à [one.newrelic.com](https://one.newrelic.com). + + + + ## Trouvez vos données + + Vous pouvez utiliser notre modèle dashboard prédéfini pour monitorer les métriques de votre application Apache Mesos. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com), aller à la page **+ Integrations & Agents** + 2. Cliquez sur **Dashboards** + 3. Dans la barre de recherche, tapez `Apache Mesos` + 4. Le Apache Mesos dashboard devrait apparaître. Cliquez dessus pour l'installer + + Votre Apache Mesos dashboard est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l'utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + Voici un exemple de requête NRQL pour afficher le temps de disponibilité du maître Apache Mesos : + + ```sql + SELECT latest(`master/uptime_secs`) as 'Masters uptime (seconds)' FROM apacheMesos + ``` + + + +## Quelle est la prochaine étape ? + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage du dashboard ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/apache-traffic-server-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/apache-traffic-server-monitoring-integration.mdx new file mode 100644 index 00000000000..e0a23059f0b --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/apache-traffic-server-monitoring-integration.mdx @@ -0,0 +1,169 @@ +--- +title: Apache Traffic Intégration du serveur +tags: + - Apache Traffic Server integration + - New Relic integrations +metaDescription: Install our Apache Traffic Server dashboards and see your Apache Traffic Server data in New Relic. +freshnessValidatedDate: '2023-06-28T00:00:00.000Z' +translationType: machine +--- + +Notre intégration Apache Traffic Server monitore les performances du trafic HTTP/HTTPS de votre serveur Apache Traffic . Le trafic HTTP/HTTPS peut être transféré ou inversé par proxy dans l'une ou les deux directions, offrant à la fois performances et évolutivité. + +Apache Traffic Server dashboard + +
+ Après avoir configuré notre serveur Apache Traffic , vous pouvez installer un dashboard pour les métriques de votre serveur Apache Traffic . +
+ +## Installer l' agent d'infrastructure [#infra] + +Pour intégrer des données dans New Relic, installez notre agent d'infrastructure. Notre agent d'infrastructure collecte et ingère des données afin que vous puissiez suivre les performances de votre application. La version doit être 1.10.7 ou supérieure pour prendre en charge l'intégration NRI-Flex. + +Vous pouvez installer l' agent d'infrastructure de deux manières différentes : + +* Notre [guide d'installation](https://one.newrelic.com/nr1-core?state=4f81feab-35f7-e97e-9903-52510f8542bd) est un outil CLI qui inspecte votre système et installe agent l' d'infrastructure aux côtés de l'monitoring d'applicationqui agent fonctionne le mieux pour votre système. Pour en savoir plus sur le fonctionnement de notre guide d'installation, consultez notre [aperçu du guide d'installation](/docs/infrastructure/host-integrations/installation/new-relic-guided-install-overview). +* Si vous préférez installer notre agent d'infrastructure manuellement, vous pouvez suivre un tutoriel d' installation manuelle pour [Linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux), [Windows](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows/) ou [macOS](/docs/infrastructure/install-infrastructure-agent/macos-installation/install-infrastructure-monitoring-agent-macos/). + +## Installer l'agent Apache New Relic + +Notre intégration Apache collecte des métriques réseau telles que les connexions TCP, la recherche DNS, HTTPS, SSL et les statuts du serveur et des travailleurs. Pour installer l'intégration, suivez les étapes de notre [installation guidée](https://one.newrelic.com/launcher/nr1-core.explorer?pane=eyJuZXJkbGV0SWQiOiJucjEtY29yZS5saXN0aW5nIn0=&cards%5B0%5D=eyJuZXJkbGV0SWQiOiJucjEtaW5zdGFsbC1uZXdyZWxpYy5ucjEtaW5zdGFsbC1uZXdyZWxpYyIsInBhdGgiOiJvaGkiLCJyZWNpcGVOYW1lIjoiYXBhY2hlLW9wZW4tc291cmNlLWludGVncmF0aW9uIiwiYWN0aXZlQ29tcG9uZW50IjoiVlRTT0NvbW1hbmQiLCJhY3RpdmVFbnZpcm9ubWVudCI6ImFwYWNoZS1vcGVuLXNvdXJjZS1pbnRlZ3JhdGlvbiJ9). Si vous devez installer l'intégration d'une manière différente,[Apache monitoring consultez Intégration .](/docs/infrastructure/host-integrations/host-integrations-list/apache-monitoring-integration/) + +## exposez vos métriques + +Après une installation réussie, Apache Traffic Server doit être démarré avec succès, puis il devrait commencer à fonctionner sur un `your_ip` avec le port `8080`. Vous devez configurer les statistiques métriques exposées. + +1. Accédez au fichier `plugin.config` : + + ```shell + sudo nano /etc/trafficserver/plugin.config + ``` + +2. Ajoutez la ligne ci-dessous dans votre fichier `plugin.config` . + + ``` + stats_over_http.so + ``` + +3. Assurez-vous que vos métriques sont exposées sur l'URL ci-dessous. + + Métriques de votre Apache Traffic Server : `http://YOUR_IP:8080/_stats` + +## Configurer NRI-Flex pour Apache Traffic Server [#integrate] + +Flex est fourni avec l'agent d'infrastructure New Relic. Pour créer un fichier de configuration flexible, suivez ces étapes : + +1. Accédez au répertoire `integrations.d` : + + ```shell + cd /etc/newrelic-infra/integrations.d + ``` + +2. Créez trois fichiers nommés `nri-flex-apache-traffic-server-config.yml`, `nri-flex-ats-cache-config.yml` et `nri-flex-ats-http-config.yml`. + +La valeur de `event_type` est utilisée pour stocker des métriques sur la NRDB. Vos fichiers devraient ressembler à ceci : + +`nri-flex-apache-traffic-server-config.yml`: + +```yml +integrations: + - name: nri-flex + interval: 30s + config: + name: ApcheTrafficServerMetrics + apis: + - event_type: ATSSampleMetrics + url: http://YOUR_IP:8080/_stats + remove_keys: + - http + - cache +``` + +`nri-flex-ats-cache-config.yml`: + +```yml +integrations: + - name: nri-flex + interval: 30s + config: + name: ATSCacheMetrics + apis: + - event_type: ATSCacheSampleMetrics + url: http://YOUR_IP:8080/_stats + keep_keys: + - cache +``` + +`nri-flex-ats-http-config.yml`: + +```yml +integrations: + - name: nri-flex + interval: 30s + config: + name: ApcheTrafficServerMetrics + apis: + - event_type: ATSHttpSampleMetrics + url: http://YOUR_IP:8080/_stats + keep_keys: + - http +``` + +## Transférer Apache Traffic le log du serveur vers New Relic + +Vous pouvez utiliser notre [transfert de log](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/) pour transférer le log du serveur Apache Traffic vers New Relic. + +Sur les machines Linux, votre fichier de log nommé `logging.yml` doit être présent dans ce chemin : + +```shell +cd /etc/newrelic-infra/logging.d/ +``` + +Après avoir créé le fichier de log, ajoutez le script suivant au fichier `logging.yml` : + +```yml +logs: + - name: manager + file: /var/log/trafficserver/manager.log + attributes: + logtype: ats_manager_logs + - name: diags + file: /var/log/trafficserver/diags.log + attributes: + logtype: ats_diags_logs +``` + +## Redémarrez l'agent New Relic Infrastructure + +Avant de pouvoir commencer à lire vos données, utilisez les instructions de notre [documentation suragent d'infrastructure ](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/)pour redémarrer votre agent d'infrastructure. + +```shell +sudo systemctl restart newrelic-infra.service +``` + +Dans quelques minutes, votre Apache Traffic serveur enverra des métriques à [one.newrelic.com](https://one.newrelic.com). + +## Trouvez vos données + +Vous pouvez choisir notre modèle dashboard prédéfini nommé `Apache Traffic Server` pour monitorer les métriques de votre serveur Apache Traffic Server. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + +1. De [one.newrelic.com](https://one.newrelic.com), aller à la page **+ Integrations & Agents** . +2. Cliquez sur **Dashboards**. +3. Dans la barre de recherche, tapez `Apache Traffic Server`. +4. Le du Apache Traffic serveur dashboard devrait apparaître. Cliquez dessus pour l'installer. + +Votre Apache Traffic Server dashboard est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l'utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + +Voici une NRQL requête pour vérifier le nombre total d'échecs de cache du Apache Traffic serveur : + +```sql +SELECT latest(global.proxy.process.cache_total_misses) AS 'cache misses' FROM ATSCacheSampleMetrics +``` + +## Quelle est la prochaine étape ? + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage du dashboard ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/cacti-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/cacti-integration.mdx new file mode 100644 index 00000000000..6d0d040c8c4 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/cacti-integration.mdx @@ -0,0 +1,136 @@ +--- +title: Intégration de Cacti +tags: + - Cacti integration + - New Relic integrations +metaDescription: Use the New Relic infrastructure agent to monitor your Cacti data. +freshnessValidatedDate: never +translationType: machine +--- + +L'intégration de Cacti avec New Relic vous offre une représentation graphique conviviale de vos données RRD, le tout au sein de la plateforme unifiée de New Relic. + +Cacti dashboard + +
+ Vous pouvez voir vos données dans un dashboard après avoir configuré l'intégration de Cacti avec New Relic. +
+ +## Configurer l'intégration Cacti [#setup] + +Suivez les étapes suivantes pour configurer l’intégration Cacti : + + + + ## Installer l' agent d'infrastructure [#install] + + Pour utiliser l’intégration Cacti, vous devez d’abord [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. + + + + ## exposer Cacti métriques [#Expose] + + Suivez les étapes ci-dessous pour exposer vos données RRD au format CSV ou JSON : + + 1. Exportez les données des fichiers RRD de Cacti vers `XML format` à l'aide de RRDTool. + 2. Convertissez les données XML au format `CSV or JSON` . + + + + ## Utilisez NRI-Flex pour capturer des métriques au format CSV [#capture-csv] + + Flex est fourni avec l'agent New Relic Infrastructure. Vous devez configurer NRI-Flex pour Cacti et créer un fichier de configuration flex. Suivez ces étapes : + + 1. Créez un fichier nommé `cacti-config.yml` dans le chemin `/newrelic-infra/integrations.d` . + + 2. Mettez à jour le `cacti-config.yml` avec l’exemple de configuration suivant : + + ```yml + --- + integrations: + - name: nri-flex + config: + name: machineLoad + apis: + - name: machineLoad + file: /home/ubuntu/xmlToCsv/local_linux_machine_load_1min_2.csv + - name: memSwap + file: /home/ubuntu/xmlToCsv/local_linux_machine_mem_swap_5.csv + - name: proc + file: /home/ubuntu/xmlToCsv/local_linux_machine_proc_1.csv + - name: machineUser + file: /home/ubuntu/xmlToCsv/local_linux_machine_users_3.csv + - name: memBuffers + file: /home/ubuntu/xmlToCsv/local_linux_machine_mem_buffers_4.csv + - name: ApacheCpuLoad + file: /home/ubuntu/xmlToCsv/local_linux_machine_apache_cpuload_6.csv + - name: ApacheTotalHits + file: /home/ubuntu/xmlToCsv/local_linux_machine_apache_total_hits_7.csv + - name: ApacheTotalKbytes + file: /home/ubuntu/xmlToCsv/local_linux_machine_apache_total_kbytes_8.csv + - name: UserLogins + file: /home/ubuntu/xmlToCsv/local_linux_machine_active_10.csv + ``` + + + + ## Transfer de log Cacti [#forward] + + Suivez ces étapes pour transférer le log Cacti vers New Relic : + + 1. Modifiez le fichier de log nommé `logging.yml` situé au chemin suivant : + + ```shell + cd /etc/newrelic-infra/logging.d + ``` + + 2. Ajoutez le snippet suivant au fichier `logging.yml`. Remplacez `file` par le chemin de votre fichier de log Cacti si nécessaire : + + ```yml + logs: + - name: cacti.log + file: /var/www/html/cacti/log/LOG_FILE_NAME + attributes: + logtype: cacti_log + ``` + + + + ## Redémarrez l'agent New Relic Infrastructure [#restart] + + Redémarrez votre agent d’infrastructure : + + ```shell + sudo systemctl restart newrelic-infra.service + ``` + + Votre application enverra des métriques à [one.newrelic.com](https://one.newrelic.com) dans quelques minutes. + + + + ## Trouvez vos données [#find-data] + + Vous pouvez utiliser notre modèle dashboard prédéfini pour monitorer les métriques de votre application Cacti. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com), aller à la page **+ Integrations & Agents** + 2. Cliquez sur **Dashboards** + 3. Dans la barre de recherche, tapez `Cacti` + 4. Le dashboard Cacti devrait apparaître. Cliquez dessus pour l'installer + + Votre dashboard Cacti est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l'utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + Voici un exemple de requête NRQL pour visualiser le nombre de connexions des utilisateurs : + + ```sql + SELECT latest(value) FROM UserLoginsSample FACET name + ``` + + + +## Quelle est la prochaine étape ? [#whats-next] + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster le mode d'affichage de votre dashboard ou ajouter plus de contenu. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/collectd-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/collectd-integration.mdx new file mode 100644 index 00000000000..a7d9f681dda --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/collectd-integration.mdx @@ -0,0 +1,18 @@ +--- +title: Intégration monitoring collectée +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: New Relic's Collectd integration monitors and reports metrics from Collectd-configured devices to New Relic. +freshnessValidatedDate: never +translationType: machine +--- + +Le moniteur [d'intégration](/docs/integrations/new-relic-integrations/getting-started/introduction-infrastructure-integrations) Collectd et rapporte les métriques des appareils configurés [par Collectd](https://collectd.org/wiki/index.php/Main_Page)vers New Relic. + +Pour commencer, consultez le [READMEde Collectd intégration sur hôte](https://github.com/newrelic/nri-collectd) sur GitHub. + + + Cette intégration est sortie en [open source sur Github](https://github.com/newrelic/nri-collectd). Un log des modifications y est également disponible pour les dernières mises à jour. La prise en charge de cette intégration est disponible avec un [abonnement Expert Services](https://www.newrelic.com/expertservices). + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/couchbase-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/couchbase-monitoring-integration.mdx new file mode 100644 index 00000000000..31a9c0b850e --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/couchbase-monitoring-integration.mdx @@ -0,0 +1,1869 @@ +--- +title: Intégration monitoring Couchbase +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: New Relic's Couchbase integration collects and sends inventory and metric data from your Couchbase cluster to the New Relic platform. +freshnessValidatedDate: never +translationType: machine +--- + +Notre [intégration](/docs/integrations/host-integrations/getting-started/introduction-host-integrations) Couchbase collecte et envoie les données d'inventaire et de métrique de votre cluster Couchbase à la plateforme New Relic, où vous pouvez rapidement voir l'état de votre environnement Couchbase. Nous collectons des données au niveau du cluster, du nœud, du moteur de requête et du bucket afin que vous puissiez trace un problème jusqu'à sa source. + +Lisez la suite pour installer l’intégration et voir quelles données nous collectons. + +## Compatibilité et exigences [#req] + +Notre intégration est compatible avec Couchbase version 4.0 ou supérieure. + +## Démarrage rapide [#quick] + +Si vous n'exécutez pas Couchbase dans des environnements Kubernetes ou ECS, nous vous recommandons notre installation guidée. Notre guide d'installation utilise notre agent infrastructure et notre CLI pour configurer l'intégration Couchbase, et découvre d'autres applications et sources log exécutées dans votre environnement, puis recommande celles que vous devez instrumenter. + +L'installation guidée fonctionne avec la plupart des configurations. Mais si cela ne répond pas à vos besoins, il existe d'autres options d'installation ci-dessous. + +Prêt à commencer ? Cliquez sur le bouton correspondant, en fonction de la [régiondata center ](/docs/accounts/accounts-billing/account-setup/choose-your-data-center)que vous utilisez. Une fois l'installation terminée, revenez à cette documentation pour consulter les options de configuration. + + + + installation guidée, région des États-Unis + + + + installation guidée, région UE + + + +## Installation [#install] + +Pour installer l'intégration Couchbase, suivez les instructions correspondant à votre environnement : + + + + Voir [le service de monitoring exécuté sur ECS](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). + + + ' ' + + + Voir [le service de monitoring exécuté sur Kubernetes](/docs/monitor-service-running-kubernetes). + + + + 1. Installez [l'agent d'infrastructure](/docs/integrations/host-integrations/installation/install-infrastructure-host-integrations/#install) et remplacez la variable `INTEGRATION_FILE_NAME` par `nri-couchbase`. + + 2. Changer de répertoire vers le dossier d'intégration : + + ``` + cd /etc/newrelic-infra/integrations.d + ``` + + 3. Copie du fichier de configuration d'exemple : + + ``` + sudo cp couchbase-config.yml.sample couchbase-config.yml + ``` + + 4. Modifiez le fichier `couchbase-config.yml` comme décrit dans les [paramètres de configuration](#config). + + + + 1. Téléchargez l'image du programme d'installation `nri-couchbase` .MSI depuis : + + [https://download.newrelic.com/infrastructure\_agent/windows/integrations/nri-couchbase/nri-couchbase-amd64.msi](https://download.newrelic.com/infrastructure_agent/windows/integrations/nri-couchbase/nri-couchbase-amd64.msi) + + 2. Pour installer à partir de l’invite de commande Windows, exécutez : + + ``` + msiexec.exe /qn /i PATH\TO\nri-couchbase-amd64.msi + ``` + + 3. Dans le répertoire d’intégration, `C:\Program Files\New Relic\newrelic-infra\integrations.d\`, créez une copie du fichier configuration d’exemple en exécutant : + + ``` + copy couchbase-config.yml.sample couchbase-config.yml + ``` + + 4. Modifiez le fichier `couchbase-config.yml` comme décrit dans les [paramètres de configuration](#config). + + + +## Mettez à jour votre intégration [#update] + +Cette intégration ne se met pas à jour automatiquement. Pour de meilleurs résultats, mettez régulièrement [à jour le package d'intégration](/docs/integrations/host-integrations/installation/update-infrastructure-host-integration-package) et [l'agent d'infrastructure](/docs/infrastructure/new-relic-infrastructure/installation/update-infrastructure-agent). + +## Tâches post-installation [#after-install] + +Une fois l'installation terminée, vous pouvez définir les options de configuration. Certaines configurations sont nécessaires pour que l'intégration fonctionne, tandis que d'autres sont facultatives. + +### Configurer l'intégration [#config] + +Si vous avez activé cette intégration via notre intégration ECS ou Kubernetes, consultez ces documents : + +* [Kubernetes](/docs/monitor-service-running-kubernetes) +* [ECS](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs) + +Pour l'installation standard sur l'hôte, cette intégration est livrée avec un fichier de configuration YAML, `apache-config.yml`. Cette configuration vous permet de placer les informations de connexion requises et de configurer la manière dont les données sont collectées. Les options que vous modifiez dépendent de votre configuration et de vos préférences. Il est livré avec un exemple de fichier de configuration `apache-config.yml.sample` que vous pouvez copier et modifier. + +Le fichier configuration contient des paramètres communs applicables à toutes les intégrations, tels que `interval`, `timeout`, `inventory_source`. Pour tout savoir sur ces paramètres courants, reportez-vous à notre document [Format de configuration](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-newer-configuration-format/#configuration-basics) . + +Les paramètres spécifiques liés à Couchbase sont définis à l'aide de la section `env` du fichier de configuration. Ces paramètres contrôlent la connexion à votre instance Couchbase ainsi que d'autres paramètres et fonctionnalités de sécurité. La liste des paramètres valides est décrite dans la section suivante de ce document. + +#### Options de configuration de Couchbase [#config-options] + +L'intégration Couchbase collecte à la fois des métriques et des informations d'inventaire. Ce tableau montre à quoi s’applique chaque option de configuration. + +' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **HOSTNAME** + + + nom d'hôte ou IP où Couchbase est exécuté. + + hôte local + + MI +
+ + **PORT** + + + Port sur lequel l'API Couchbase écoute. + + 8091 + + MI +
+ + **QUERY\_PORT** + + + Port sur lequel le service Couchbase N1QL écoute. + + 8093 + + MI +
+ + **USERNAME** + + + Nom d'utilisateur pour accéder à l'API Couchbase. + + N/A + + MI +
+ + **PASSWORD** + + + Mot de passe pour l'utilisateur donné. + + N/A + + MI +
+ + **USE\_SSL** + + + Utilisez SSL lors de la communication avec Couchbase. + + FAUX + + MI +
+ + **CA\_BUNDLE\_FILE** + + + Emplacement du certificat SSL sur l'hôte. Requis uniquement si `USE_SSL` est vrai. + + N/A + + MI +
+ + **CA\_BUNDLE\_DIR** + + + Répertoire de bundles d'autorités de certification alternatives. + + N/A + + MI +
+ + **TIMEOUT** + + + Délai d'expiration requests API, en secondes. + + 30 + + MI +
+ + **ENABLE\_BUCKETS** + + + Si vrai, collecte les ressources du bucket. + + vrai + + M +
+ + **ENABLE\_BUCKET\_STATS** + + + Si vrai, collecte des statistiques de bucket supplémentaires. + + vrai + + M +
+ + **ENABLE\_CLUSTER\_AND\_NODES** + + + Si vrai, collecte les ressources du cluster et du nœud. + + vrai + + M +
+ + **METRICS** + + + Définissez sur `true` pour activer la collecte de métriques uniquement. + + FAUX + +
+ + **INVENTORY** + + + Définissez sur `true` pour activer la collecte d'inventaire uniquement. + + FAUX + +
+ +Les valeurs de ces paramètres peuvent être définies de plusieurs manières : + +* Ajout de la valeur directement dans le fichier de configuration (la manière la plus courante). +* Remplacement des valeurs des variables d’environnement à l’aide de la notation `{{}}` . Cela nécessite l'agent d'infrastructure version 1.14.0 ou supérieure. Pour plus d'informations, consultez [Configuration de l'infrastructure](/docs/infrastructure/install-infrastructure-agent/configuration/configure-infrastructure-agent/#passthrough) ou consultez [l'exemple de variable d'environnement](#example5). +* Utilisation de la gestion des secrets. Utilisez ceci pour protéger les informations sensibles, telles que les mots de passe qui seraient exposés en texte brut dans le fichier de configuration. Pour plus d'informations, voir [Gestion des secrets](/docs/integrations/host-integrations/installation/secrets-management). + +### Étiquettes [#labels] + +Vous pouvez également décorer vos métriques à l’aide d’étiquettes. Les étiquettes vous permettent d'ajouter des paires d'attributs (valeur clé) à vos métriques, que vous pouvez ensuite utiliser pour interroger, filtrer ou regrouper vos métriques. + +Notre fichier de configuration d'exemple par défaut inclut des exemples d'étiquettes mais, comme ils ne sont pas obligatoires, vous pouvez supprimer, modifier ou ajouter de nouvelles étiquettes de votre choix. + +``` + labels: + env: production + role: load_balancer +``` + +## Exemple de configuration [#examples] + + + + Il s'agit de la configuration de base utilisée pour collecter les métriques et l'inventaire à partir de votre hôte local : + + ``` + integrations: + - name: nri-couchbase + env: + HOSTNAME: localhost + PORT: 8091 + QUERY_PORT: 8093 + USERNAME: couchbase_user + PASSWORD: couchbase_password + interval: 15s + labels: + environment: production + inventory_source: config/couchbase + ``` + + + + Cette configuration collecte des métriques toutes les 15 secondes et un inventaire toutes les 60 secondes : + + ``` + integrations: + - name: nri-couchbase + env: + METRICS: true + HOSTNAME: localhost + PORT: 8091 + QUERY_PORT: 8093 + USERNAME: couchbase_user + PASSWORD: couchbase_password + interval: 15s + labels: + environment: production + + - name: nri-couchbase + env: + INVENTORY: true + HOSTNAME: localhost + PORT: 8091 + QUERY_PORT: 8093 + USERNAME: couchbase_user + PASSWORD: couchbase_password + interval: 60s + labels: + environment: production + inventory_source: config/couchbase + ``` + + + + Dans cette configuration nous utilisons la variable d'environnement `COUCHBASE_HOST` pour renseigner le paramètre nom d'hôte de l'intégration : + + ``` + integrations: + - name: nri-couchbase + env: + METRICS: "true" + HOSTNAME: {{COUCHBASE_HOST}} + PORT: 8091 + QUERY_PORT: 8093 + USERNAME: couchbase_user + PASSWORD: couchbase_password + interval: 15s + labels: + env: production + role: load_balancer + ``` + + + + Dans cette configuration nous monitoring plusieurs serveurs Couchbase à partir de la même intégration. Pour la première instance (`HOSTNAME: 1st_couchbase_host`), nous collectons des métriques et un inventaire tandis que pour la deuxième instance (`HOSTNAME: 2nd_couchbase_host`), nous collecterons uniquement des métriques. + + ``` + integrations: + - name: nri-couchbase + env: + METRICS: "true" + HOSTNAME: 1st_couchbase_host + PORT: 8091 + QUERY_PORT: 8093 + USERNAME: couchbase_user + PASSWORD: couchbase_password + interval: 15s + labels: + env: production + role: load_balancer + - name: nri-couchbase + env: + INVENTORY: "true" + HOSTNAME: 1st_couchbase_host + PORT: 8091 + QUERY_PORT: 8093 + USERNAME: couchbase_user + PASSWORD: couchbase_password + interval: 60s + labels: + env: production + role: load_balancer + inventory_source: config/couchbase + + - name: nri-couchbase + env: + METRICS: "true" + HOSTNAME: 2nd_couchbase_host + PORT: 8091 + QUERY_PORT: 8093 + USERNAME: couchbase_user + PASSWORD: couchbase_password + interval: 15s + labels: + env: production + role: load_balancer + ``` + + + +## Rechercher et utiliser des données [#find-and-use] + +les données d'intégration sont rapportées au [dashboard d'intégration](/docs/integrations/new-relic-integrations/getting-started/infrastructure-integration-dashboards-charts). + +Les données Couchbase sont attachées aux [types d’événements](/docs/using-new-relic/data/understand-data/new-relic-data-types#events-new-relic) suivants : + +* `CouchbaseBucketSample` +* `CouchbaseClusterSample` +* `CouchbaseNodeSample` +* `CouchbaseQueryEngineSample` + +Vous pouvez [interroger ces données](/docs/using-new-relic/data/understand-data/query-new-relic-data) à des fins de dépannage ou pour créer des graphiques et des dashboards personnalisés. + +Pour en savoir plus sur la recherche et l’utilisation de vos données, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +L'intégration Couchbase collecte l'attribut de données métriques suivant. Certains noms métriques sont préfixés par un indicateur de catégorie et un point, tels que `cluster.` ou `node.`. + +### Exemples de mesures du bucket Couchbase [#bucket-sample-metric] + +Ces attributs sont attachés au type d'événement `CouchbaseBucketSample` . + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `bucket.activeResidentItemsRatio` + + Pourcentage d'éléments actifs mis en cache dans la RAM dans ce bucket. +
+ `bucket.averageDiskCommitTimeInMilliseconds` + + Le temps moyen de validation du disque du bucket, en millisecondes. +
+ `bucket.averageDiskUpdateTimeInMilliseconds` + + Le temps moyen de mise à jour du disque du bucket, en millisecondes. +
+ `bucket.cacheMissRatio` + + Pourcentage de lectures par seconde dans ce bucket à partir du disque par opposition à la RAM. +
+ `bucket.currentConnections` + + Nombre de connexions à ce serveur, y compris les connexions provenant de SDK clients externes, de proxys, requests TAP et de collecte de statistiques internes. +
+ `bucket.dataUsedInBytes` + + Quantité de données utilisées par ce bucket, en octets. +
+ `bucket.decrementHitsPerSecond` + + Le nombre de décrémentations par seconde du bucket. +
+ `bucket.decrementMissesPerSecond` + + Le nombre d'échecs de décrémentation par seconde du bucket. +
+ `bucket.deleteHitsPerSecond` + + Le nombre de suppressions par seconde pour ce bucket. +
+ `bucket.deleteMissesPerSecond` + + Le nombre d'échecs de suppression par seconde pour ce bucket. +
+ `bucket.diskCreateOperationsPerSecond` + + Nombre de nouveaux éléments créés sur le disque par seconde pour ce bucket. +
+ `bucket.diskFetchesPerSecond` + + Le nombre d'opérations requises par seconde pour récupérer des éléments du disque sur le bucket. +
+ `bucket.diskUpdateOperationsPerSecond` + + Nombre d'éléments mis à jour sur le disque par seconde pour ce bucket. +
+ `bucket.diskUsedInBytes` + + La quantité d'espace disque utilisée pour le bucket, en octets. +
+ `bucket.diskWriteQueue` + + Nombre d'éléments en attente d'être écrits sur le disque dans le bucket. +
+ `bucket.ejectionsPerSecond` + + Nombre total d'éléments par seconde éjectés sur le disque dans ce compartiment +
+ `bucket.evictionPolicy` + + La politique d'expulsion du seau. +
+ `bucket.evictionsPerSecond` + + Le nombre d'éléments par seconde expulsés du bucket. +
+ `bucket.getHitsPerSecond` + + Nombre d'opérations d'obtention par seconde pour les données contenues dans ce bucket. +
+ `bucket.getMissesPerSecond` + + Nombre d'opérations d'obtention par seconde pour les données que ce bucket ne contient pas. +
+ `bucket.hitRatio` + + Pourcentage de requêtes GET traitées avec des données de ce bucket. +
+ `bucket.incrementHitsPerSecond` + + Le nombre d'incréments par seconde du bucket. +
+ `bucket.incrementMissesPerSecond` + + Le nombre d'échecs d'incrémentation par seconde du bucket. +
+ `bucket.itemCount` + + Le nombre d'objets stockés dans le bucket. +
+ `bucket.memoryHighWaterMarkInBytes` + + Limite supérieure pour les expulsions automatiques sur le bucket, en octets. +
+ `bucket.memoryLowWaterMarkInBytes` + + Limite d'eau basse pour les expulsions automatiques sur le bucket, en octets. +
+ `bucket.memoryUsedInBytes` + + La quantité de RAM utilisée pour le bucket, en octets. +
+ `bucket.metadataInRAMInBytes` + + Quantité de RAM utilisée pour les métadonnées sur ce bucket, en octets. +
+ `bucket.missesPerSecond` + + Le nombre d'échecs par seconde du bucket. +
+ `bucket.nodeLocator` + + Type de localisateur de nœuds. +
+ `bucket.outOfMemoryErrorsPerSecond` + + Nombre d'erreurs matérielles de manque de mémoire pour ce bucket. +
+ `bucket.OverheadInBytes` + + La mémoire supplémentaire utilisée par les données transitoires (files d'attente de persistance, files d'attente de réplication, points de contrôle, etc.) sur le bucket, en octets. +
+ `bucket.pendingResidentItemsRatio` + + Pourcentage d'éléments en attente mis en cache dans la RAM dans ce bucket. +
+ `bucket.quotaUtilization` + + Le pourcentage du quota de RAM actuellement utilisé sur le bucket. +
+ `bucket.readOperationsPerSecond` + + Le nombre de lectures (opérations d'obtention) par seconde à partir de ce bucket. +
+ `bucket.readRatePerSecond` + + Les octets lus par seconde du bucket. +
+ `bucket.replicaIndex` + + Définit si les index de réplication sont activés pour le bucket. +
+ `bucket.replicaNumber` + + Nombre de répliques de ce bucket. +
+ `bucket.replicaResidentItemsRatio` + + Pourcentage d'éléments de réplique mis en cache dans la RAM dans ce bucket. +
+ `bucket.residentItemsRatio` + + Pourcentage de tous les éléments mis en cache dans la RAM dans ce bucket. +
+ `bucket.temporaryOutOfMemoryErrorsPerSecond` + + Nombre de back-offs envoyés par seconde aux SDK clients en raison de situations de manque de mémoire à partir de ce bucket. +
+ `bucket.threadsNumber` + + Le nombre de lecteurs et d’écrivains simultanés pour le compartiment de données. +
+ `bucket.totalOperationsPerSecond` + + Le nombre total d'opérations par seconde du bucket. +
+ `bucket.writeOperationsPerSecond` + + Le nombre d'écritures (opérations de définition) par seconde dans ce bucket. +
+ `bucket.writeRatePerSecond` + + Les octets écrits dans le bucket. +
+ +### Exemples de mesures cluster Couchbase [#cluster-sample-metric] + +Ces attributs sont attachés au type d'événement `CouchbaseClusterSample` . + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `cluster.autoFailoverCount` + + Le nombre de basculements automatiques sur le cluster. +
+ `cluster.autoFailoverEnabled` + + Indique si le basculement est activé sur le cluster. +
+ `cluster.databaseFragmentationThreshold` + + Le niveau de pourcentage dans la base de données auquel le compactage se produit. +
+ `cluster.diskFreeInBytes` + + L'espace disque libre sur ce cluster, en octets. +
+ `cluster.diskQuotaTotalInBytes` + + Espace disque total disponible pour Couchbase, en octets. +
+ `cluster.diskTotalInBytes` + + Espace disque total disponible, en octets. +
+ `cluster.diskUsedbyDataInBytes` + + Disque utilisé par les données du bucket sur ce cluster, en octets. +
+ `cluster.diskUsedInBytes` + + L'espace disque utilisé sur ce cluster, en octets. +
+ `cluster.indexFragmentationThreshold` + + Le niveau de pourcentage dans les indices auquel le compactage se produit. +
+ `cluster.maximumBucketCount` + + Nombre maximal de buckets pris en charge par ce cluster. +
+ `cluster.memoryQuotaTotalInBytes` + + RAM totale disponible pour Couchbase, en octets. +
+ `cluster.memoryQuotaTotalPerNodeInBytes` + + RAM totale disponible pour Couchbase, par nœud, en octets. +
+ `cluster.memoryQuotaUsedInBytes` + + RAM totale utilisée par Couchbase, en octets. +
+ `cluster.memoryQuotaUsedPerNodeInBytes` + + RAM totale utilisée par Couchbase, par nœud, en octets. +
+ `cluster.memoryTotalInBytes` + + La RAM totale sur ce cluster, en octets. +
+ `cluster.memoryUsedByDataInBytes` + + RAM totale utilisée par les données du bucket sur ce cluster, en octets. +
+ `cluster.memoryUsedInBytes` + + La RAM totale utilisée sur ce cluster, en octets. +
+ `cluster.viewFragmentationThreshold` + + Le pourcentage de fragmentation dans tous les fichiers d'index de vue auquel le compactage est déclenché. +
+ +### Exemples de mesures du nœud Couchbase [#node-sample-metric] + +Ces attributs sont attachés au type d'événement `CouchbaseNodeSample` . + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `node.cpuUtilization` + + L'utilisation du processeur du nœud. +
+ `node.memoryFreeInBytes` + + La mémoire libre du nœud, en octets. +
+ `node.memoryTotalInBytes` + + La mémoire totale allouée au nœud, en octets. +
+ `node.recoveryType` + + Le type de récupération du nœud. +
+ `node.services` + + Les services du nœud. +
+ `node.status` + + L'état du nœud. (`0` = malsain, `1` = sain) +
+ `node.swapTotalInBytes` + + L'espace d'échange total du nœud, en octets. +
+ `node.swapUsedInBytes` + + L'espace de swap utilisé par le nœud, en octets. +
+ `node.uptimeInMilliseconds` + + Le temps de disponibilité du nœud, en millisecondes. +
+ +### Exemples de mesures du moteur de requête Couchbase [#query-engine-sample-metric] + +Ces attributs sont attachés au type d'événement `CouchbaseQueryEngineSample` . + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `queryengine.activeRequests` + + Nombre actuel de requests actives. +
+ `queryengine.averageRequestTimeInMilliseconds` + + Temps de requête moyen de ce moteur de requête, en millisecondes. +
+ `queryengine.completedLimit` + + Nombre de requêtes que Couchbase conservera dans le log des requêtes. +
+ `queryengine.completedRequests` + + Nombre actuel de requests complétées. +
+ `queryengine.completedThresholdInMilliseconds` + + Temps minimum que la requête doit prendre pour être enregistrée dans le log des requêtes Couchbase, en millisecondes. +
+ `queryengine.cores` + + Nombre de cœurs disponibles pour ce moteur de requête. +
+ `queryengine.garbageCollectionNumber` + + Numéro du dernier ramasse-miettes. +
+ `queryengine.garbageCollectionPaused` + + Pourcentage de temps pendant lequel le ramassage des déchets est suspendu. +
+ `queryengine.garbageCollectionTimePausedInMilliseconds` + + Nombre de millisecondes pendant lesquelles le ramassage des déchets est suspendu, en millisecondes. +
+ `queryengine.medianRequestTimeInMilliseconds` + + Temps de requête médian de ce moteur de requête, en millisecondes. +
+ `queryengine.preparedStatementUtilization` + + Pourcentage de requests qui sont des déclarations préparées. +
+ `queryengine.requestsLast15MinutesPerSecond` + + Requêtes par seconde en moyenne au cours des 15 dernières minutes. +
+ `queryengine.requestsLast1MinutesPerSecond` + + Requêtes par seconde en moyenne au cours de la dernière minute. +
+ `queryengine.requestsLast5MinutesPerSecond` + + Requêtes par seconde en moyenne au cours des 5 dernières minutes. +
+ `queryengine.requestTime80thPercentileInMilliseconds` + + 80e percentile du temps de requête de ce moteur de requête, en millisecondes. +
+ `queryengine.requestTime95thPercentileInMilliseconds` + + 95e percentile du temps de requête de ce moteur de requête, en millisecondes. +
+ `queryengine.requestTime99thPercentileInMilliseconds` + + 99e percentile du temps de requête de ce moteur de requête, en millisecondes. +
+ `queryengine.systemCPUUtilization` + + Utilisation du processeur de ce moteur de requête +
+ `queryengine.systemMemoryInBytes` + + L'espace d'adressage virtuel réservé par ce moteur de requête, en octets. +
+ `queryengine.totalMemoryInBytes` + + Quantité cumulée de mémoire allouée aux objets de tas par ce moteur de requête, en octets. +
+ `queryengine.totalThreads` + + Nombre total de threads utilisés par ce moteur de requête. +
+ `queryengine.uptimeInMilliseconds` + + temps de disponibilité de ce moteur de requêtes, en millisecondes +
+ `queryengine.usedMemoryInBytes` + + Quantité de mémoire allouée aux objets de tas pour ce moteur de requête, en octets. +
+ `queryengine.userCPUUtilization` + + Utilisation du processeur par l'utilisateur de ce moteur de requête. +
+ +## Données d'inventaire [#inventory] + +L'intégration Couchbase capture les paramètres de configuration de la base de données Couchbase. Les données sont disponibles sur la [page Inventaire](/docs/infrastructure/new-relic-infrastructure/infrastructure-ui-pages/infrastructure-inventory-page-search-your-entire-infrastructure) dans l'UI infrastructure, sous la source **config/couchbase**. Pour en savoir plus sur les données d’inventaire, voir [Comprendre les données](/docs/infrastructure/integrations-getting-started/getting-started/understand-integration-data-data-types#inventory-data). + +L'intégration capture les données pour les paramètres de configuration Couchbase suivants : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `Node locator` + + Type de localisateur de nœuds. +
+ `Proxy port` + + Port proxy sur lequel le bucket communique. +
+ `Type` + + Le type de seau. +
+ `UUID` + + L'UUID du bucket. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `Collection node` + + Le nœud utilisé pour collecter les métriques. +
+ `Couchbase version` + + La version de Couchbase exécutée sur ce cluster. +
+ `UUID` + + L'UUID du cluster. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `Cluster membership` + + L'appartenance au cluster du nœud. +
+ `Hostname` + + Le nom d'hôte du nœud. +
+ `Operating system` + + Le système d'exploitation du nœud. +
+ `Port` + + Le port du nœud. +
+ `Recovery type` + + Le type de récupération du nœud. +
+ `Services` + + Une liste séparée par des virgules des services du nœud. +
+ `Version` + + La version de Couchbase exécutée sur ce nœud. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `Node hostname` + + Le nom d'hôte du nœud sur lequel ce moteur de requête s'exécute. +
+ `Node port` + + Le port du nœud sur lequel ce moteur de requête s'exécute. +
+ `Version` + + La version de ce moteur de requête. +
+
+
+ +## Vérifiez le code source [#source-code] + +Cette intégration est un logiciel open source. Cela signifie que vous pouvez [parcourir son code source](https://github.com/newrelic/nri-apache/) et envoyer des améliorations, ou créer votre propre fork et le construire. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/elasticsearch/elasticsearch-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/elasticsearch/elasticsearch-integration.mdx new file mode 100644 index 00000000000..96b5fcaa70d --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/elasticsearch/elasticsearch-integration.mdx @@ -0,0 +1,2860 @@ +--- +title: Elasticsearch monitoring Intégration +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: 'New Relic''s Elasticsearch integration: what data it reports and how to configure it.' +freshnessValidatedDate: never +translationType: machine +--- + +Notre intégration Elasticsearch collecte et envoie l'inventaire et les métriques de votre cluster [Elasticsearch](https://www.elastic.co/) à notre plateforme, où vous pouvez voir l'état de votre environnement Elasticsearch. Nous collectons des métriques au niveau du cluster, du nœud et de l'index afin que vous puissiez trouver plus facilement la source de tout problème. + +Pour installer Elasticsearch monitoring l'intégration , suivez les étapes suivantes : + +1. [Installer et activer l'intégration](#install). +2. [Configurer l'intégration](#config). +3. [Rechercher et utiliser des données](#find-and-use). +4. En option, consultez [les paramètres de configuration d'Elasticsearch](/docs/infrastructure/host-integrations/host-integrations-list/elasticsearch/elasticsearch-config). + +## Compatibilité et exigences [#req] + +### Versions d'Elasticsearch [#elasticsearch-versions] + +Notre intégration est compatible avec Elasticsearch 7.x à 8.X. + +### Système d'exploitation pris en charge [#supported-os] + +* WindowsWindows +* LinuxLinux + +Pour une liste complète des versions spécifiques Windows et Linux, consultez le tableau des [systèmes d'exploitation compatibles](/docs/infrastructure/install-infrastructure-agent/get-started/requirements-infrastructure-agent/#operating-systems). + +### exigences système [#system-reqs] + +* Un compte New Relic. Vous n'en avez pas ? [Inscrivez-vous gratuitement !](https://newrelic.com/signup) Aucune carte de crédit requise. + +* Si Elasticsearch ne s'exécute pas sur Kubernetes ou Amazon ECS, [installez l'agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic) sur un hôte qui exécute Elasticsearch. Sinon: + + * Si vous exécutez surKubernetesKubernetes, voir [ces exigences](/docs/monitor-service-running-kubernetes#requirements). + * Si vous exécutez surECSAmazon ECS, consultez [ces exigences](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). + +## Installer et activer l'intégration [#install] + +Pour installer l'intégration Elasticsearch, suivez les instructions correspondant à votre environnement : + +### Installation de Linux [#linux] + +1. Suivez les instructions pour [installer une intégration](/docs/install-integrations-package) et remplacez la variable `INTEGRATION_FILE_NAME` par `nri-elasticsearch`. + +2. Changez de répertoire pour accéder au dossier configuration de l'intégration en exécutant : + + ```shell + cd /etc/newrelic-infra/integrations.d + ``` + +3. Copiez l’exemple de fichier de configuration en exécutant : + + ```shell + sudo cp elasticsearch-config.yml.sample elasticsearch-config.yml + ``` + +4. Modifiez le fichier de configuration `elasticsearch-config.yml` avec votre éditeur préféré. Découvrez quelques [exemples de fichiers de configuration](#examples). + +5. Pour activer l'analyse automatique des erreurs Elasticsearch et logtransfert, copiez (ou renommez) le fichier `elasticsearch-log.yml.example` en `elasticsearch-log.yml`. Pas besoin de redémarrer l'agent. + + + **Example** + + +```shell +sudo cp /etc/newrelic-infra/logging.d/elasticsearch-log.yml.example /etc/newrelic-infra/logging.d/elasticsearch-log.yml +``` + +### Autres environnements [#other-env] + + + Windows installation + } + > + 1. Téléchargez l'image du programme d'installation `nri-elasticsearch` .MSI depuis : + + [https://download.newrelic.com/infrastructure\_agent/windows/integrations/nri-elasticsearch/nri-elasticsearch-amd64.msi](https://download.newrelic.com/infrastructure_agent/windows/integrations/nri-elasticsearch/nri-elasticsearch-amd64.msi) + + 2. Pour installer à partir de l’invite de commande Windows, exécutez : + + ``` + msiexec.exe /qn /i PATH\TO\nri-elasticsearch-amd64.msi + ``` + + 3. Dans le répertoire de l'intégration, `C:\Program Files\New Relic\newrelic-infra\integrations.d\`, créez une copie de l'exemple de fichier de configuration en exécutant : + + ``` + cp elasticsearch-config.yml.sample elasticsearch-config.yml + ``` + + 4. Modifiez le fichier `elasticsearch-config.yml`comme décrit dans [les fichiers d'exemple elasticsearch-config.yml](#examples). + + + + Amazon ECS installation{' '} Installation d'Amazon ECS + + } + > + Voir [le service de monitoring exécuté sur ECS](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). + + + Kubernetes installation + } + > + Voir [le service de monitoring exécuté sur Kubernetes](/docs/monitor-service-running-kubernetes). + + + +Notes supplémentaires : + +* **Advanced:** les intégrations sont également disponibles au [formattarball ](/docs/integrations/host-integrations/installation/install-host-integrations-built-new-relic#tarball)pour permettre une installation en dehors d'un gestionnaire de paquets. +* **On-host integrations do not automatically update.** Pour de meilleurs résultats, mettez régulièrement [à jour le package d'intégration](/docs/integrations/host-integrations/installation/update-infrastructure-host-integration-package) et [l'agent d'infrastructure](/docs/infrastructure/new-relic-infrastructure/installation/update-infrastructure-agent). + + + +## Configurer l'intégration [#config] + +Il existe plusieurs façons de configurer l'intégration, selon la manière dont elle a été installée : + +* Si activé viaKubernetesKubernetes, voir [services de monitoring exécutés sur Kubernetes](/docs/monitor-service-running-kubernetes). +* Si activé viaECSAmazon ECS, voir [les services de monitoring exécutés sur ECS](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). +* Si installé sur l'hôte, modifiez la configuration dans le fichier de configuration YAML de l'intégration, `elasticsearch-config.yml`. La configuration au format YAML d'une intégration est l'endroit où vous pouvez placer les informations de connexion requises et configurer la manière dont les données sont collectées. Les options que vous modifiez dépendent de votre configuration et de vos préférences. Le fichier configuration contient des paramètres communs applicables à toutes les intégrations, tels que `interval`, `timeout`, `inventory_source`. Pour tout savoir sur ces paramètres courants, reportez-vous à notre document [sur les formats de configuration](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-newer-configuration-format/#configuration-basics) . + + + Si vous utilisez toujours nos legacy fichiers configuration ou de définition, vérifiez le [format configuration standard](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format/). + + +## Fichiers d'exemple elasticsearch-config.yml [#examples] + + + + Il s'agit de la configuration de base utilisée pour collecter les métriques et l'inventaire à partir de votre hôte local : + + ```yaml + integrations: + - name: nri-elasticsearch + env: + HOSTNAME: localhost + PORT: 9200 + USERNAME: elasticsearch_user + PASSWORD: elasticsearch_password + CONFIG_PATH: /etc/elasticsearch/elasticsearch.yml + interval: 15s + labels: + environment: production + inventory_source: config/elasticsearch + ``` + + + + Cette configuration collecte des métriques toutes les 15 secondes et un inventaire toutes les 60 secondes : + + ```yaml + integrations: + - name: nri-elasticsearch + env: + METRICS: true + HOSTNAME: localhost + PORT: 9200 + USERNAME: elasticsearch_user + PASSWORD: elasticsearch_password + REMOTE_MONITORING: true + interval: 15s + labels: + environment: production + + - name: nri-elasticsearch + env: + INVENTORY: true + HOSTNAME: localhost + PORT: 9200 + USERNAME: elasticsearch_user + PASSWORD: elasticsearch_password + CONFIG_PATH: /etc/elasticsearch/elasticsearch.yml + interval: 60s + labels: + environment: production + inventory_source: config/elasticsearch + ``` + + + + Dans cette configuration nous utilisons la variable d'environnement `ELASTIC_HOST` pour renseigner le paramètre nom d'hôte de l'intégration : + + ```yaml + integrations: + - name: nri-elasticsearch + env: + METRICS: "true" + HOSTNAME: {{ELASTIC_HOST}} + PORT: 9200 + USERNAME: elasticsearch_user + PASSWORD: elasticsearch_password + interval: 15s + labels: + env: production + role: load_balancer + ``` + + + + L'intégration est capable de collecter toutes les métriques du cluster en se connectant simplement à l'un des nœuds, en utilisant une configuration de base affichée avant que toutes les métriques du cluster puissent être récupérées. + + Une autre façon de configurer l'intégration est de configurer le scraping de toutes les instances mais en activant le paramètre `MASTER_ONLY` qui fait que l'intégration ne collecte les métriques que si l'nstance scrapée est maître. Cela permet de partager la même configuration pour tous les nœuds et d'éviter la duplication des données.\ + Voici à quoi devrait ressembler le fichier de configuration de chacun des nœuds : + + ```yaml + integrations: + - name: nri-elasticsearch + env: + HOSTNAME: localhost + PORT: 9200 + USERNAME: elasticsearch_user + PASSWORD: elasticsearch_password + MASTER_ONLY: "true" + CONFIG_PATH: /etc/elasticsearch/elasticsearch.yml + interval: 15s + labels: + environment: production + inventory_source: config/elasticsearch + ``` + + + +## Options de configuration pour l'intégration [#config-options] + +Pour en savoir plus sur la recherche et l'utilisation de vos données, consultez [les paramètres de configuration d'Elasticsearch](/docs/infrastructure/host-integrations/host-integrations-list/elasticsearch/elasticsearch-config). + +## Rechercher et utiliser des données [#find-and-use] + +Les données de ce service sont signalées à un [dashboard d'intégration](/docs/integrations/new-relic-integrations/getting-started/infrastructure-integration-dashboards-charts). + +Les données Elasticsearch sont attachées aux [types d’événements](/docs/using-new-relic/data/understand-data/new-relic-data-types#events-new-relic) suivants : + +* [`ElasticsearchClusterSample`](#cluster-metrics) +* [`ElasticsearchNodeSample`](#node-metrics) +* [`ElasticsearchCommonSample`](#common-metrics) +* [`ElasticsearchIndexSample`](#index-metrics) + +Vous pouvez [interroger ces données](/docs/using-new-relic/data/understand-data/query-new-relic-data) à des fins de dépannage ou pour créer des graphiques et des dashboards personnalisés. + +Pour en savoir plus sur la recherche et l'utilisation de vos données, consultez comment [comprendre les données d'intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## Métriques collectées par l'intégration [#metrics] + +L'intégration Elasticsearch collecte les métriques suivantes. Chaque nom de métrique est préfixé par un indicateur de catégorie et un point, tel que `cluster.` ou `shards.`. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `cluster.dataNodes` + + Le nombre de nœuds de données dans le cluster. +
+ `cluster.nodes` + + Le nombre de nœuds dans le cluster. +
+ `cluster.status` + + L’état de santé du cluster Elasticsearch : `red`, `yellow` ou `green`. +
+ `shards.active` + + Le nombre de fragments actifs dans le cluster. +
+ `shards.initializing` + + Le nombre de fragments en cours d'initialisation. +
+ `shards.primaryActive` + + Le nombre de fragments primaires actifs dans le cluster. +
+ `shards.relocating` + + Le nombre de fragments qui se déplacent d’un nœud à un autre. +
+ `shards.unassigned` + + Le nombre de fragments qui ne sont pas attribués à un nœud. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `activeSearches` + + Le nombre de recherches actives. +
+ `activeSearchesInMilliseconds` + + Le temps passé sur la recherche. +
+ `breakers.estimatedSizeFieldDataCircuitBreakerInBytes` + + La taille estimée du disjoncteur de données de terrain, en octets. +
+ `breakers.estimatedSizeParentCircuitBreakerInBytes` + + La taille estimée du disjoncteur parent, en octets. +
+ `breakers.estimatedSizeRequestCircuitBreakerInBytes` + + La taille estimée du disjoncteur de demande, en octets. +
+ `breakers.fieldDataCircuitBreakerTripped` + + Le nombre de fois où le disjoncteur de données de terrain s'est déclenché. +
+ `breakers.parentCircuitBreakerTripped` + + Le nombre de fois que le disjoncteur parent s'est déclenché. +
+ `breakers.requestCircuitBreakerTripped` + + Le nombre de fois où le disjoncteur de demande s'est déclenché. +
+ `cache.cacheSizeIDInBytes` + + La taille du cache d'identification, en octets. +
+ `flush.indexFlushDisk` + + Le nombre de vidages d'index sur le disque depuis le début. +
+ `flush.timeFlushIndexDiskInSeconds` + + Le temps passé à vider l'index sur le disque. +
+ `fs.bytesAvailableJVMInBytes` + + Octets disponibles pour cette machine virtuelle Java sur ce magasin de fichiers, en octets. +
+ `fs.bytesReadsInBytes` + + Le nombre total d'octets lus à partir du magasin de fichiers, en octets. +
+ `fs.bytesUserIoOperationsInBytes` + + Le nombre total d'octets utilisés pour toutes les opérations I/O sur le magasin de fichiers, en octets. +
+ `fs.iOOperations` + + Le nombre total d'opérations I/O sur le magasin de fichiers. +
+ `fs.reads` + + Le nombre total de lectures à partir du magasin de fichiers. +
+ `fs.totalSizeInBytes` + + La taille totale du magasin de fichiers, en octets. +
+ `fs.unallocatedBytesInBytes` + + Le nombre total d'octets non alloués dans le magasin de fichiers, en octets. +
+ `fs.writes` + + Le nombre total d'écritures dans le magasin de fichiers. +
+ `fs.writesInBytes` + + Le nombre total d'octets écrits dans le magasin de fichiers, en octets. +
+ `get.currentRequestsRunning` + + Le nombre de requêtes GET en cours d'exécution. +
+ `get.requestsDocumentExists` + + Le numéro de requête GET où le document existait. +
+ `get.requestsDocumentExistsInMilliseconds` + + Le temps passé sur la requête GET où le document existait. +
+ `get.requestsDocumentMissing` + + Le numéro de requête GET où le document était manquant. +
+ `get.requestsDocumentMissingInMilliseconds` + + Le temps passé sur la requête GET où le document était manquant. +
+ `get.timeGetRequestsInMilliseconds` + + Le temps passé sur la requête GET. +
+ `get.totalGetRequests` + + Le nombre de requêtes GET. +
+ `http.currentOpenConnections` + + Le nombre de connexions HTTP actuellement ouvertes. +
+ `http.openedConnections` + + Le nombre de connexions HTTP ouvertes. +
+ `indexing.docsCurrentlyDeleted` + + Le nombre de documents actuellement supprimés d'un index. +
+ `indexing.documentsCurrentlyIndexing` + + Le nombre de documents actuellement indexés dans un index. +
+ `indexing.documentsIndexed` + + Le nombre de documents indexés dans un index. +
+ `indexing.timeDeletingDocumentsInMilliseconds` + + Le temps passé à supprimer des documents d'un index. +
+ `indexing.timeIndexingDocumentsInMilliseconds` + + Le temps passé à indexer les documents dans un index. +
+ `indexing.totalDocumentsDeleted` + + Le nombre de documents supprimés d'un index. +
+ `indices.indexingOperationsFailed` + + Le nombre d’opérations d’indexation ayant échoué. +
+ `indices.indexingWaitedThrottlingInMilliseconds` + + L'indexation du temps a été attendue en raison d'une limitation. +
+ `indices.memoryQueryCacheInBytes` + + La mémoire utilisée par le cache de requête, en octets. +
+ `indices.numberIndices` + + Le nombre de documents sur tous les fragments primaires attribués au nœud. +
+ `indices.queryCacheEvictions` + + Le nombre d'expulsions du cache de requêtes. +
+ `indices.queryCacheHits` + + Le nombre de requêtes taux d'accès au cache. +
+ `indices.queryCacheMisses` + + Le nombre de requêtes échouées dans le cache. +
+ `indices.recoveryOngoingShardSource` + + Le nombre de récupérations en cours pour lesquelles un fragment sert de source. +
+ `indices.recoveryOngoingShardTarget` + + Le nombre de récupérations en cours pour lesquelles un fragment sert de cible. +
+ `indices.recoveryWaitedThrottlingInMilliseconds` + + Le temps total de récupération attendu en raison de la limitation. +
+ `indices.requestCacheEvictions` + + Le nombre d'expulsions du cache de requêtes. +
+ `indices.requestCacheHits` + + Le nombre de demandes de taux d'accès au cache. +
+ `indices.requestCacheMemoryInBytes` + + La mémoire utilisée par le cache de requête, en octets. +
+ `indices.requestCacheMisses` + + Le nombre de requêtes manquées dans le cache. +
+ `indices.segmentsIndexShard` + + Le nombre de segments dans un fragment d'index. +
+ `indices.segmentsMaxMemoryIndexWriterInBytes` + + La mémoire maximale utilisée par le rédacteur d'index, en octets. +
+ `indices.segmentsMemoryUsedDocValuesInBytes` + + La mémoire utilisée par les valeurs du document, en octets. +
+ `indices.segmentsMemoryUsedFixedBitSetInBytes` + + La mémoire utilisée par l'ensemble de bits fixes, en octets. +
+ `indices.segmentsMemoryUsedIndexSegmentsInBytes` + + La mémoire utilisée par les segments d'index, en octets. +
+ `indices.segmentsMemoryUsedIndexWriterInBytes` + + La mémoire utilisée par le rédacteur d'index, en octets. +
+ `indices.segmentsMemoryUsedNormsInBytes` + + La mémoire utilisée par la norme, en octets. +
+ `indices.segmentsMemoryUsedSegmentVersionMapInBytes` + + La mémoire utilisée par la carte des versions de segment, en octets. +
+ `indices.segmentsMemoryUsedStoredFieldsInBytes` + + La mémoire utilisée par les champs stockés, en octets. +
+ `indices.segmentsMemoryUsedTermsInBytes` + + La mémoire utilisée par les termes, en octets. +
+ `indices.segmentsMemoryUsedTermVectorsInBytes` + + La mémoire utilisée par les vecteurs de termes, en octets. +
+ `indices.translogOperations` + + Le nombre d'opérations dans le log des transactions. +
+ `indices.translogOperationsInBytes` + + La taille du log des transactions, en octets. +
+ `jvm.gc.collections` + + Le nombre de récupérations de place exécutées par la JVM. +
+ `jvm.gc.collectionsInMilliseconds` + + Le temps passé à la collecte des déchets dans la JVM. +
+ `jvm.gc.concurrentMarkSweep` + + Le nombre de GC de marquage et de balayage simultanés dans la JVM. +
+ `jvm.gc.concurrentMarkSweepInMilliseconds` + + Le temps passé sur les GC de marquage et de balayage simultanés dans la JVM. +
+ `jvm.gc.majorCollectionsOldGenerationObjects` + + Le nombre de GC majeurs dans la JVM qui collectent des objets d'ancienne génération. +
+ `jvm.gc.majorCollectionsOldGenerationObjectsInMilliseconds` + + Le temps passé dans les principaux GC de la JVM qui collectent les objets d'ancienne génération. +
+ `jvm.gc.minorCollectionsYoungGenerationObjects` + + Le nombre de GC mineurs dans la JVM qui collecte les objets de jeune génération. +
+ `jvm.gc.minorCollectionsYoungGenerationObjectsInMilliseconds` + + Le temps passé dans les GC mineurs de la JVM qui collectent les objets de jeune génération. +
+ `jvm.gc.parallelNewCollections` + + Le nombre de nouveaux GC parallèles dans la JVM. +
+ `jvm.gc.parallelNewCollectionsInMilliseconds` + + Le temps passé sur les nouveaux GC parallèles dans la JVM. +
+ `jvm.mem.heapCommittedInBytes` + + La quantité de mémoire garantie comme étant disponible pour le tas JVM, en octets. +
+ `jvm.mem.heapMaxInBytes` + + La quantité maximale de mémoire pouvant être utilisée par le tas JVM, en octets. +
+ `jvm.mem.heapUsed` + + Le pourcentage de mémoire actuellement utilisé par le tas JVM sous forme de valeur comprise entre `0` et `1`. +
+ `jvm.mem.heapUsedInBytes` + + La quantité de mémoire actuellement utilisée par le tas JVM, en octets. +
+ `jvm.mem.maxOldGenerationHeapInBytes` + + La quantité maximale de mémoire pouvant être utilisée par le tas d'ancienne génération, en octets. +
+ `jvm.mem.maxSurvivorSpaceInBytes` + + La quantité maximale de mémoire pouvant être utilisée par l'espace survivant, en octets. +
+ `jvm.mem.maxYoungGenerationHeapInBytes` + + La quantité maximale de mémoire pouvant être utilisée par le tas de jeune génération, en octets. +
+ `jvm.mem.nonHeapCommittedInBytes` + + La quantité de mémoire garantie comme étant disponible pour la JVM non-heap, en octets. +
+ `jvm.mem.nonHeapUsedInBytes` + + La quantité de mémoire actuellement utilisée par la JVM non-heap, en octets. +
+ `jvm.mem.usedOldGenerationHeapInBytes` + + La quantité de mémoire actuellement utilisée par le tas d'ancienne génération, en octets. +
+ `jvm.mem.usedSurvivorSpaceInBytes` + + La quantité de mémoire actuellement utilisée par l'espace survivant, en octets. +
+ `jvm.mem.usedYoungGenerationHeapInBytes` + + La quantité de mémoire actuellement utilisée par le tas de jeune génération, en octets. +
+ `jvm.ThreadsActive` + + Le nombre de threads actifs dans la JVM. +
+ `jvm.ThreadsPeak` + + Le nombre maximal de threads utilisés par la JVM. +
+ `merges.currentActive` + + Le nombre de fusions de segments actuellement actives. +
+ `merges.docsSegmentsMerging` + + Le nombre de documents répartis sur les segments actuellement en cours de fusion. +
+ `merges.docsSegmentMerges` + + Le nombre de documents dans tous les segments fusionnés. +
+ `merges.mergedSegmentsInBytes` + + La taille de tous les segments fusionnés, en octets. +
+ `merges.segmentMerges` + + Le nombre de fusions de segments. +
+ `merges.sizeSegmentsMergingInBytes` + + La taille des segments en cours de fusion, en octets. +
+ `merges.totalSegmentMergingInMilliseconds` + + Le temps consacré à la fusion des segments. +
+ `openFD` + + Le nombre de descripteurs de fichiers ouverts associés au processus en cours, ou`-1` si non pris en charge. +
+ `queriesTotal` + + Le nombre de requêtes. +
+ `refresh.total` + + Le nombre d'actualisations de l'index. +
+ `refresh.totalInMilliseconds` + + Le temps passé à actualiser l'index. +
+ `searchFetchCurrentlyRunning` + + Le nombre de recherches en cours d'exécution. +
+ `searchFetches` + + Le nombre de recherches effectuées. +
+ `sizeStoreInBytes` + + La taille du magasin, en octets. +
+ `threadpool.bulk.Queue` + + Le nombre de threads en file d'attente dans le pool en masse. +
+ `threadpool.bulkActive` + + Le nombre de threads actifs dans le pool en masse. +
+ `threadpool.bulkRejected` + + Le nombre de threads rejetés dans le pool en masse. +
+ `threadpool.bulkThreads` + + Le nombre de threads dans le pool en masse. +
+ `threadpool.fetchShardStartedQueue` + + Le nombre de threads en file d'attente dans le pool de récupération de fragments démarré. +
+ `threadpool.fetchShardStartedRejected` + + Le nombre de threads rejetés dans le pool de fragments de récupération démarré. +
+ `threadpool.fetchShardStartedThreads` + + Le nombre de threads dans le pool de fragments de récupération démarré. +
+ `threadpool.fetchShardStoreActive` + + Le nombre de threads actifs dans le pool de stockage de fragments de récupération. +
+ `threadpool.fetchShardStoreQueue` + + Le nombre de threads en file d'attente dans le pool de stockage de fragments de récupération. +
+ `threadpool.fetchShardStoreRejected` + + Le nombre de threads rejetés dans le pool de stockage de fragments de récupération. +
+ `threadpool.fetchShardStoreThreads` + + Le nombre de threads dans le pool de stockage de fragments de récupération. +
+ `threadpool.flushActive` + + Le nombre de threads actifs dans la file d'attente de vidage. +
+ `threadpool.flushQueue` + + Le nombre de threads en file d'attente dans le pool de vidage. +
+ `threadpool.flushRejected` + + Le nombre de threads rejetés dans le pool de vidage. +
+ `threadpool.flushThreads` + + Le nombre de threads dans le pool de vidage. +
+ `threadpool.forceMergeActive` + + Le nombre de threads actifs pour les opérations de fusion forcée. +
+ `threadpool.forceMergeQueue` + + Le nombre de threads en file d'attente pour les opérations de fusion forcée. +
+ `threadpool.forceMergeRejected` + + Le nombre de threads rejetés pour les opérations de fusion forcée. +
+ `threadpool.forceMergeThreads` + + Le nombre de threads pour les opérations de fusion forcée. +
+ `threadpool.genericActive` + + Le nombre de threads actifs dans le pool générique. +
+ `threadpool.genericQueue` + + Le nombre de threads en file d'attente dans le pool générique. +
+ `threadpool.genericRejected` + + Le nombre de threads rejetés dans le pool générique. +
+ `threadpool.genericThreads` + + Le nombre de threads dans le pool générique. +
+ `threadpool.getActive` + + Le nombre de threads actifs dans le pool d'obtention. +
+ `threadpool.getQueue` + + Le nombre de threads en file d'attente dans le pool d'obtention. +
+ `threadpool.getRejected` + + Le nombre de threads rejetés dans le pool d'obtention. +
+ `threadpool.getThreads` + + Le nombre de threads dans le pool d'obtention. +
+ `threadpool.listenerActive` + + Le nombre de threads actifs dans le pool d'écouteurs.
(Obsolète sur Elasticsearch 8) +
+ `threadpool.listenerQueue` + + Le nombre de threads en file d'attente dans le pool d'écoute.
(Obsolète sur Elasticsearch 8) +
+ `threadpool.listenerRejected` + + Le nombre de threads rejetés dans le pool d'écouteurs.
(Obsolète sur Elasticsearch 8) +
+ `threadpool.listenerThreads` + + Le nombre de threads dans le pool d'écoute.
(Obsolète sur Elasticsearch 8) +
+ `threadpool.managementActive` + + Le nombre de threads actifs dans le pool de gestion. +
+ `threadpool.managementQueue` + + Le nombre de threads en file d'attente dans le pool de gestion. +
+ `threadpool.managementRejected` + + Le nombre de threads rejetés dans le pool de gestion. +
+ `threadpool.managementThreads` + + Le nombre de threads dans le pool de gestion. +
+ `threadpool.mergeActive` + + Le nombre de threads actifs dans le pool de fusion. +
+ `threadpool.mergeQueue` + + Le nombre de threads en file d'attente dans le pool de fusion. +
+ `threadpool.mergeRejected` + + Le nombre de threads rejetés dans le pool de fusion. +
+ `threadpool.mergeThreads` + + Le nombre de threads dans le pool de fusion. +
+ `threadpool.percolateActive` + + Le nombre de threads actifs dans le pool de percolation. +
+ `threadpool.percolateQueue` + + Le nombre de threads en file d'attente dans le pool de percolation. +
+ `threadpool.percolateRejected` + + Le nombre de threads rejetés dans le pool de percolation. +
+ `threadpool.percolateThreads` + + Le nombre de threads dans le pool de percolation. +
+ `threadpool.refreshActive` + + Le nombre de threads actifs dans le pool d'actualisation. +
+ `threadpool.refreshQueue` + + Le nombre de threads en file d'attente dans le pool d'actualisation. +
+ `threadpool.refreshRejected` + + Le nombre de threads rejetés dans le pool d'actualisation. +
+ `threadpool.refreshThreads` + + Le nombre de threads dans le pool d'actualisation. +
+ `threadpool.searchActive` + + Le nombre de threads actifs dans le pool de recherche. +
+ `threadpool.searchQueue` + + Le nombre de threads en file d'attente dans le pool de recherche. +
+ `threadpool.searchRejected` + + Le nombre de threads rejetés dans le pool de recherche. +
+ `threadpool.searchThreads` + + Le nombre de threads dans le pool de recherche. +
+ `threadpool.snapshotActive` + + Le nombre de threads actifs dans le pool de snapshots. +
+ `threadpool.snapshotQueue` + + Le nombre de threads en file d’attente dans le pool de snapshots. +
+ `threadpool.snapshotRejected` + + Le nombre de threads rejetés dans le pool de snapshots. +
+ `threadpool.snapshotThreads` + + Le nombre de threads dans le pool de snapshots. +
+ `threadpool.activeFetchShardStarted` + + Le nombre de threads actifs dans le pool de fragments de récupération démarré. +
+ `transport.connectionsOpened` + + Le nombre de connexions ouvertes pour la communication du cluster. +
+ `transport.packetsReceived` + + Le nombre de paquets reçus dans la communication du cluster. +
+ `transport.packetsReceivedInBytes` + + La taille des données reçues dans la communication du cluster, en octets. +
+ `transport.packetsSent` + + Le nombre de paquets envoyés dans la communication du cluster. +
+ `transport.packetsSentInBytes` + + La taille des données envoyées dans la communication de cluster, en octets. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `primaries.docsDeleted` + + Le nombre de documents supprimés des fragments primaires. +
+ `primaries.docsnumber` + + Le nombre de documents dans les fragments primaires. +
+ `primaries.flushesTotal` + + Le nombre de vidages d'index sur le disque à partir des fragments primaires depuis le démarrage. +
+ `primaries.flushTotalTimeInMilliseconds` + + Le temps passé à vider l’index sur le disque à partir des fragments primaires. +
+ `primaries.get.documentsExist` + + Le nombre de requêtes GET sur les fragments primaires où le document existait. +
+ `primaries.get.documentsExistInMilliseconds` + + Le temps passé sur la requête GET à partir des fragments primaires où le document existait. +
+ `primaries.get.documentsMissing` + + Le nombre de requêtes GET provenant des fragments primaires où le document manquait. +
+ `primaries.get.documentsMissingInMilliseconds` + + Le temps passé sur la requête GET à partir des fragments primaires où le document manquait. +
+ `primaries.get.requests` + + Le nombre de requêtes GET provenant des fragments primaires. +
+ `primaries.get.requestsCurrent` + + Le nombre de requêtes GET actuellement en cours d'exécution sur les fragments primaires. +
+ `primaries.get.requestsInMilliseconds` + + Le temps passé sur la requête GET à partir des fragments primaires. +
+ `primaries.index.docsCurrentlyDeleted` + + Le nombre de documents actuellement supprimés d'un index sur les fragments primaires. +
+ `primaries.index.docsCurrentlyDeletedInMilliseconds` + + Le temps passé à supprimer des documents d’un index sur les fragments primaires. +
+ `primaries.index.docsCurrentlyIndexing` + + Le nombre de documents actuellement indexés sur un index sur les fragments primaires. +
+ `primaries.index.docsCurrentlyIndexingInMilliseconds` + + Le temps passé à indexer les documents dans un index sur les fragments primaires. +
+ `primaries.index.docsDeleted` + + Le nombre de documents supprimés d'un index sur les fragments primaires. +
+ `primaries.index.docsTotal` + + Le nombre de documents indexés sur un index sur les fragments primaires. +
+ `primaries.indexRefreshesTotal` + + Le nombre d’actualisations d’index sur les fragments primaires. +
+ `primaries.indexRefreshesTotalInMilliseconds` + + Le temps passé à actualiser l'index sur les fragments primaires. +
+ `primaries.merges.current` + + Le nombre de fusions de segments actuellement actives sur les fragments primaires. +
+ `primaries.merges.docsSegmentsCurrentlyMerged` + + Le nombre de documents répartis sur les segments actuellement en cours de fusion sur les fragments primaires. +
+ `primaries.merges.docsTotal` + + Le nombre de documents sur tous les segments fusionnés sur les fragments principaux. +
+ `primaries.merges.SegmentsCurrentlyMergedInBytes` + + La taille des segments en cours de fusion sur les fragments primaires, en octets. +
+ `primaries.merges.SegmentsTotal` + + Le nombre de fusions de segments sur les fragments primaires. +
+ `primaries.merges.segmentsTotalInBytes` + + La taille de tous les segments fusionnés sur les fragments primaires, en octets. +
+ `primaries.merges.segmentsTotalInMilliseconds` + + Le temps passé à la fusion des segments sur les fragments primaires. +
+ `primaries.queriesInMilliseconds` + + Le temps passé à interroger les fragments primaires. +
+ `primaries.queriesTotal` + + Le nombre de requêtes adressées aux fragments primaires. +
+ `primaries.queryActive` + + Le nombre de requêtes actuellement actives sur les fragments primaires. +
+ `primaries.queryFetches` + + Le nombre de requêtes récupérées actuellement en cours d'exécution sur les fragments principaux. +
+ `primaries.queryFetchesInMilliseconds` + + Le temps passé sur les requêtes de récupération sur les fragments primaires. +
+ `primaries.queryFetchesTotal` + + Le nombre de requêtes récupérées sur les fragments primaires. +
+ `primaries.sizeInBytes` + + La taille de tous les fragments primaires, en octets. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `index.docs` + + Le nombre de documents dans l'index. +
+ `index.docsDeleted` + + Le nombre de documents supprimés dans l'index. +
+ `index.health` + + L'état de l'index : `red`, `yellow` ou `green`. +
+ `index.primaryShards` + + Le nombre de fragments primaires dans l'index. +
+ `index.primaryStoreSizeInBytes` + + La taille du magasin de fragments primaires dans l'index. +
+ `index.replicaShards` + + Le nombre de fragments de réplique dans l'index. +
+ `index.storeSizeInBytes` + + La taille du magasin des fragments primaires et réplicas dans l'index, en octets. +
+
+
+ +L'intégration Elasticsearch est un logiciel open source. Cela signifie que vous pouvez [parcourir son code source](https://github.com/newrelic/nri-elasticsearch) et envoyer des améliorations, ou créer votre propre fork et le construire. + +### Paramètres d'instance Elasticsearch [#instance-settings] + +Vous pouvez utiliser la section `env` du fichier `elasticsearch-config.yml` pour définir des paramètres spécifiques liés à Elasticsearch. Ces paramètres contrôlent la connexion à votre Elasticsearch instance, ainsi que d'autres paramètres et fonctionnalités de sécurité. + +L'intégration Elasticsearch collecte à la fois les informations Métriques et Inventaire. Dans le tableau, utilisez la colonne **Applies to** pour les paramètres disponibles pour chaque collection : + +' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **HOSTNAME** + + + nom d'hôte ou IP où Elasticsearch s'exécute. + + hôte local + + MI +
+ + **LOCAL\_HOSTNAME** + + + nom d'hôte ou IP du nœud Elasticsearch à partir duquel collecter les données d'inventaire. Ne doit être défini que si vous ne souhaitez pas collecter de données d'inventaire sur localhost. + + hôte local + + M +
+ + **PORT** + + + Port sur lequel Elasticsearch écoute. + + 9200 + + MI +
+ + **USERNAME** + + + Nom d'utilisateur pour accéder à Elasticsearch Node. + + N/A + + MI +
+ + **PASSWORD** + + + Mot de passe pour l'utilisateur donné. + + N/A + + MI +
+ + **CLUSTER\_ENVIRONMENT** + + + Une façon de préciser davantage pour quel cluster nous collectons des données, par exemple : « simulation ». + + N/A + + MI +
+ + **USE\_SSL** + + + Utilisez SSL lors de la communication avec le nœud Elasticsearch. + + FAUX + + MI +
+ + **CA\_BUNDLE\_FILE** + + + Emplacement du certificat SSL sur l'hôte. Requis uniquement si `USE_SSL` est vrai. + + N/A + + MI +
+ + **CA\_BUNDLE\_DIR** + + + Répertoire de bundles d'autorités de certification alternatives. + + N/A + + MI +
+ + **SSL\_ALTERNATIVE\_HOSTNAME** + + + Nom d'hôte alternatif du serveur que l'intégration acceptera comme valide aux fins de négociation SSL. + + N/A + + MI +
+ + **TLS\_INSECURE\_SKIP\_VERIFY** + + + Ignorer la vérification de la chaîne de certificat du serveur et du nom d'hôte. + + FAUX + + MI +
+ + **CONFIG\_PATH** + + + Chemin vers le fichier de configuration Elasticsearch. + + /etc/elasticsearch/ + +
+ + elasticsearch.yml +
+ je +
+ + **TIMEOUT** + + + Délai d'expiration requests API, en secondes. + + 30 + + MI +
+ + **COLLECT\_INDICES** + + + Indique s'il faut collecter ou non les métriques d'indices. + + vrai + + M +
+ + **COLLECT\_PRIMARIES** + + + Indique s'il faut collecter les métriques primaires ou non. + + vrai + + M +
+ + **INDICES\_REGEX** + + + Filtrer les indices collectés. + + N/A + + M +
+ + **MASTER\_ONLY** + + + Collectez les métriques de cluster sur le maître élu uniquement. + + FAUX + + M +
+ + **METRICS** + + + Définissez sur `true` pour activer la collecte de métriques uniquement. + + FAUX + +
+ + **INVENTORY** + + + Définissez sur `true` pour activer la collecte d'inventaire uniquement. + + FAUX + +
+ +Les valeurs de ces paramètres peuvent être définies de plusieurs manières : + +* Ajout de la valeur directement dans le fichier de configuration. C'est la manière la plus courante. + +* Remplacement des valeurs des variables d’environnement à l’aide de la notation `{{ }}` . En savoir plus sur [l'utilisation des passthroughs de variables d'environnement avec l'intégration sur hôte](/docs/infrastructure/install-infrastructure-agent/configuration/configure-infrastructure-agent/#passthrough) ou voir l'exemple de [remplacement des variables d'environnement](/docs/infrastructure/host-integrations/host-integrations-list/elasticsearch/elasticsearch-integration#envvar-replacement). Cela nécessite l'agent d'infrastructure v1.14.0+. + +* Utilisation de la gestion des secrets. Utilisez ceci pour protéger les informations sensibles, telles que les mots de passe qui seraient exposés en texte brut dans le fichier de configuration. Pour plus d'informations, voir [gestion des secrets](/docs/integrations/host-integrations/installation/secrets-management). + +### Libellés et attribut personnalisé [#labels] + +Vous pouvez également décorer vos métriques à l’aide d’étiquettes. Les étiquettes vous permettent d'ajouter une paire d'attributs valeur clé à vos métriques, que vous pouvez ensuite utiliser pour interroger, filtrer ou regrouper vos métriques.
Le [fichier d'exemple de configuration de base elasticsearch-config.yml](/docs/infrastructure/host-integrations/host-integrations-list/elasticsearch/elasticsearch-integration#basic-config) inclut l'utilisation d'étiquettes. Cependant, comme ils ne sont pas obligatoires, vous pouvez supprimer, modifier ou en ajouter de nouveaux de votre choix. + +```yaml + labels: + env: production + role: load_balancer +``` + +## Données d'inventaire [#inventory] + +L'intégration Elasticsearch capture les paramètres de configuration du nœud Elasticsearch, comme spécifié dans le [fichier de configuration YAML](/docs/infrastructure/host-integrations/host-integrations-list/elasticsearch/elasticsearch-integration/#basic-config). Il collecte également les informations de configuration du nœud à partir du point de terminaison `\_nodes/\_local` . Les données sont disponibles sur la [page Inventaire des infrastructures](/docs/infrastructure/new-relic-infrastructure/infrastructure-ui-pages/infrastructure-inventory-page-search-your-entire-infrastructure), sous la source `config/elasticsearch` . + +Pour en savoir plus sur les données d'inventaire, consultez comment [comprendre les données d'intégration](/docs/infrastructure/integrations-getting-started/getting-started/understand-integration-data-data-types#inventory-data). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/envoy-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/envoy-integration.mdx new file mode 100644 index 00000000000..e4c9d96dda6 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/envoy-integration.mdx @@ -0,0 +1,153 @@ +--- +title: Intégration d'Envoy +tags: + - New Relic integrations + - Envoy integration +metaDescription: Use New Relic infrastructure agent to get a dashboard with metrics from your Envoy. +freshnessValidatedDate: '2024-03-21T00:00:00.000Z' +translationType: machine +--- + +Obtenez des informations approfondies et détaillées sur les opérations d’Envoy grâce à une intégration transparente des données dans New Relic. Monitorer les métriques clés pour garantir les performances optimales de votre cluster backend Envoy, des sockets d'écoute, du routage HTTP et du matériel cryptographique. + +Envoy dashboard + +
+ Après avoir configuré notre intégration Envoy, nous vous fournissons un dashboard pour vos métriques Envoy. +
+ + + + ## Installer l' agent d'infrastructure [#infra-install] + + Pour utiliser l’intégration Envoy, vous devez également [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L'agent infrastructure monitore l'hôte lui-même, tandis que l'intégration que vous installerez à l'étape suivante étend votre monitoring avec des données spécifiques à Envoy. + + + + ## Activer l'intégration d'Envoy avec nri-prometheus + + Pour configurer l'intégration Envoy, suivez ces étapes : + + 1. Créez un fichier nommé `nri-prometheus-config.yml` dans le répertoire d'intégration : + + ```shell + touch /etc/newrelic-infra/integrations.d/nri-prometheus-config.yml + ``` + + 2. Ajoutez le snippet suivant à votre fichier `nri-prometheus-config.yml` pour permettre à l'agent de capturer les données Envoy : + + ```yml + integrations: + - name: nri-prometheus + config: + # When standalone is set to false nri-prometheus requires an infrastructure agent to work and send data. Defaults to true + standalone: false + + # When running with infrastructure agent emitters will have to include infra-sdk + emitters: infra-sdk + + # The name of your cluster. It's important to match other New Relic products to relate the data. + cluster_name: "YOUR_DESIRED_CLUSTER_NAME" + + targets: + - description: Envoy metrics list + urls: ["http://:9901/stats/prometheus"] + + # tls_config: + # ca_file_path: "/etc/etcd/etcd-client-ca.crt" + # cert_file_path: "/etc/etcd/etcd-client.crt" + # key_file_path: "/etc/etcd/etcd-client.key" + + # Whether the integration should run in verbose mode or not. Defaults to false + verbose: false + + # Whether the integration should run in audit mode or not. Defaults to false. + # Audit mode logs the uncompressed data sent to New Relic. Use this to log all data sent. + # It does not include verbose mode. This can lead to a high log volume, use with care + audit: false + + # The HTTP client timeout when fetching data from endpoints. Defaults to 30s. + # scrape_timeout: "30s" + + # Length in time to distribute the scraping from the endpoints + scrape_duration: "5s" + + # Number of worker threads used for scraping targets. + # For large clusters with many (>400) endpoints, slowly increase until scrape + # time falls between the desired `scrape_duration`. + # Increasing this value too much will result in huge memory consumption if too + # many metrics are being scraped. + # Default: 4 + # worker_threads: 4 + + # Whether the integration should skip TLS verification or not. Defaults to false + insecure_skip_verify: true + timeout: 10s + ``` + + + + ## Transfer de log Envoy + + Suivez ces étapes pour transférer le log Envoy vers New Relic : + + 1. Modifiez le fichier de log nommé `logging.yml` situé au chemin suivant : + + ```shell + cd /etc/newrelic-infra/logging.d + ``` + + 2. Ajoutez le script suivant au fichier `logging.yml` . Remplacez `file` par le chemin d'accès à votre fichier log Envoy si nécessaire : + + ```yml + logs: + - name: envoy.log + file: /tmp/envoy.log + attributes: + logtype: envoy_logs + - name: envoy-admin.log + file: /tmp/admin_access.log + attributes: + logtype: envoy_admin_logs + ``` + + + + ## Redémarrez l'agent New Relic Infrastructure + + Redémarrez votre agent d’infrastructure. + + ```shell + sudo systemctl restart newrelic-infra.service + ``` + + Dans quelques minutes, votre application enverra des métriques à [one.newrelic.com](https://one.newrelic.com). + + + + ## Trouvez vos données + + Vous pouvez choisir notre modèle dashboard prédéfini nommé `Envoy` pour monitorer les métriques de votre application Envoy. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com), aller à la page **+ Integrations & Agents** + 2. Cliquez sur **Dashboards** + 3. Dans la barre de recherche, tapez `Envoy` + 4. Le dashboard Envoy devrait apparaître. Cliquez dessus pour l'installer + + Votre dashboard Envoy est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l'utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + Voici une requête NRQL pour vérifier le nombre total de connexions en aval d'Envoy : + + ```sql + SELECT latest(envoy_http_downstream_cx_total) as 'Downstream total connections' from Metric + ``` + + + +## Quelle est la prochaine étape ? + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage du dashboard ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/flex-integration-tool-build-your-own-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/flex-integration-tool-build-your-own-integration.mdx new file mode 100644 index 00000000000..4b639ddd443 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/flex-integration-tool-build-your-own-integration.mdx @@ -0,0 +1,351 @@ +--- +title: 'Créez votre propre intégration : New Relic Flex' +tags: + - Instrument everything + - Develop your own integrations + - New Relic Flex + - nri-flex +metaDescription: Use New Relic's Flex integration tool to create a lightweight custom integration that reports event and metric data to New Relic. +freshnessValidatedDate: '2024-10-28T00:00:00.000Z' +translationType: machine +--- + +New Relic fournit [une intégration et des démarrages rapides](https://newrelic.com/instant-observability) pour de nombreux services et frameworks populaires. Si vous utilisez déjà New Relic et que vous souhaitez signaler des données d'un service pour lequel nous n'avons pas d'intégration, vous pouvez créer votre propre intégration en suivant ces options : + +* Avec , vous pouvez utiliser notre outil léger Flex (recommandé) ou créer une [intégration complète sur hôte](/docs/integrations/host-integrations/getting-started/introduction-host-integrations) en utilisant notre [SDK d'intégration](/docs/integrations/integrations-sdk/getting-started/introduction-infrastructure-integrations-sdk). +* Pour les solutions monitoring de télémétrie (métriques, trace), utilisez nos [SDK de télémétrie](/docs/data-ingest-apis/get-data-new-relic/new-relic-sdks/telemetry-sdks-send-custom-telemetry-data-new-relic). +* Créez une [application New Relic](/docs/new-relic-one/use-new-relic-one/build-new-relic-one/new-relic-one-build-your-own-custom-new-relic-one-application) personnalisée qui utilise votre propre fonctionnalité UI JavaScript. + +## Qu'est-ce que New Relic Flex ? [#what-is-it] + +Flex est une intégration New Relic tout-en-un, indépendante des applications, qui vous permet de collecter des événements et des métriques à partir d'une large gamme de services. Il est fourni avec notre [agent d'infrastructure](/docs/infrastructure/infrastructure-monitoring/get-started/get-started-infrastructure-monitoring/). Vous pouvez instrumenter n'importe quelle application qui expose des métriques via un protocole standard (HTTP, fichier, shell) dans un format standard (par exemple, JSON ou texte brut) : vous créez un fichier configuration YAML, démarrez l'agent infrastructure et vos données sont signalées à New Relic. + +Après avoir collecté et nettoyé les données, vous pouvez ensuite [interroger les données Flex ](/docs/using-new-relic/data/understand-data/query-new-relic-data)dans New Relic, créer [des graphiques personnalisés](/docs/query-your-data/explore-query-data/use-charts/use-your-charts/) et utiliser ces données dans votre [dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/). + +## Vérifiez la compatibilité et les exigences [#requirements] + +Assurez-vous que votre système répond à ces exigences : + +1. [Créez un compte gratuit](https://newrelic.com/signup) si vous ne l'avez pas déjà fait. C'est gratuit ! + +2. Le compte New Relic est compatible avec ces systèmes d'exploitation et plateformes : + + * Kubernetes + * Linux + * macOS + * Windows + +3. Consultez notre documentation sur [les exigences relatives à l'agent infrastructure ](/docs/infrastructure/install-infrastructure-agent/get-started/requirements-infrastructure-agent/)pour vous assurer que votre système et toute intégration sur hôte que vous configurez répondent aux exigences. + +4. Flex est fourni avec notre [agent d'infrastructure](/docs/infrastructure/infrastructure-monitoring/get-started/get-started-infrastructure-monitoring/) version 1.10.7 ou supérieure fonctionnant sous Linux, Windows ou Kubernetes. + +Consultez l'[identification des versions d'agent obsolètes à partir du document de UI](/docs/infrastructure/install-infrastructure-agent/update-or-uninstall/update-infrastructure-agent/#check-version) pour vérifier votre version ou [mettez à jour le document de l'agent infrastructure ](/docs/infrastructure/install-infrastructure-agent/update-or-uninstall/update-infrastructure-agent/)si vous devez le mettre à jour. + +## installation [#installation] + +Suivez ces étapes pour installer New Relic Flex : + + + + ### Installer l' agent d'infrastructure [#install-infra-agent] + + À partir de la version 1.10.7 de l'agent New Relic Infrastructure, Flex est fourni avec l'agent. Pour installer l'agent d'infrastructure, voir : + + * [Installer l'agent d'infrastructure pour Linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux/) + + * [Installer l'agent d'infrastructure pour Windows](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows/) + + + L'agent doit s'exécuter en mode [root/administrateur](/docs/infrastructure/install-infrastructure-agent/linux-installation/linux-agent-running-modes/) . Vous pouvez [démarrer, arrêter et redémarrer](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/) l’agent d’infrastructure à partir de la ligne de commande. + + + + + ### Vérifiez que Flex est opérationnel [#flex-up-running] + + Suivez ces étapes : + + 1. Accédez au dossier d’intégration de l’agent d’infrastructure : + + * Pour Linux : `/etc/newrelic-infra/integrations.d` + * Pour Windows : `C:\Program Files\New Relic\newrelic-infra\integrations.d\` + + 2. Créez le fichier de configuration d'intégration. Par exemple, `integrations.yml`, s'il n'existe pas. + + 3. Ajoutez la configuration Flex au fichier : + + ```yaml + integrations: + - name: nri-flex + config: + name: just-testing + ``` + + Si vous avez déjà une section `integrations` dans le fichier, ajoutez-y `nri-flex` . + + 4. Après quelques minutes, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Query your data** et exécutez cette requête : + + ```sql + FROM flexStatusSample + SELECT * + LIMIT 1 + ``` + + La requête devrait donner un tableau similaire à celui-ci : + + Flex status table + +
+ Accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Query your data**, ajoutez votre requête dans le générateur de requêtes et cliquez sur **Run**. +
+ + + Si vous n'obtenez rien, assurez-vous que votre fichier de configuration YAML est bien indenté et que les niveaux d'indentation n'utilisent pas de tabulations au lieu d'espaces. Vous pouvez utiliser un validateur YAML, tel que [YAML Lint](https://www.yamllint.com/) + +
+ + + ### Votre première intégration Flex [#first-flex-integration] + + Cet exemple montre comment collecter des métriques de disque à partir d'un système de fichiers non pris en charge nativement par New Relic à l'aide de la commande `df` sous Linux. + + L'objectif est de traiter la sortie de la commande `df` , en affichant le système de fichiers et les blocs de 1 octet, tout en excluant le système de fichiers déjà pris en charge par l'agent. Si les systèmes de fichiers non pris en charge ne sont pas montés, supprimez les arguments -x. + + ``` + $ df -PT -B1 -x tmpfs -x xfs -x vxfs -x btrfs -x ext -x ext2 -x ext3 -x ext4 + Filesystem Type 1-blocks Used Available Capacity Mounted on + devtmpfs devtmpfs 246296576 0 246296576 0% /dev + go_src vboxsf 499963170816 361339486208 138623684608 73% /go/src + ``` + + Vous devez convertir la sortie de texte tabulaire ci-dessus en un ensemble d’exemples JSON équivalents avec le format suivant. Notez que l'agent décore chaque échantillon avec des champs supplémentaires : + + ```json + { + "event": { + "event_type": "FileSystemSample", + "fs": "go_src", + "fsType": "vboxsf", + "capacityBytes": 499963170816, + "usedBytes": 361345331200, + "availableBytes": 138617839616, + "usedPerc": 73, + "mountedOn": "/go/src" + } + } + ``` + + Tout d’abord, vous devez indiquer à Flex comment effectuer la transformation du texte du tableau ci-dessus en JSON en spécifiant les éléments suivants : + + * Nom de la métrique : `FileSystem` + * Quelle commande exécuter : `df -PT -B1 ...` + * Comment diviser la table de sortie de `df` + * Comment attribuer les valeurs aux noms métriques donnés + + Ceci est réalisé en plaçant le contenu ci-dessous dans le fichier de configuration YAML : + + ```yaml + integrations: + - name: nri-flex + config: + name: linuxFileSystemIntegration + apis: + - name: FileSystem + commands: + - run: 'df -PT -B1 -x tmpfs -x xfs -x vxfs -x btrfs -x ext -x ext2 -x ext3 -x ext4' + split: horizontal + split_by: \s+ + row_start: 1 + set_header: [fs,fsType,capacityBytes,usedBytes,availableBytes,usedPerc,mountedOn] + perc_to_decimal: true + ``` + + * `apis` est un ensemble d'entrées pour chaque échantillon. Chaque entrée définit un nom pour l'échantillon, ainsi que les commandes et procédures pour obtenir et traiter l'échantillon. La première entrée de l'exemple est nommée `FileSystem`, qui est utilisée pour nommer l'événement `FileSystemSample` . + + * `commands` spécifie comment obtenir les informations à partir des applications CLI : + + * `run: 'df -PT -B1...` spécifie la commande à exécuter. + * `split: horizontal` indique que chaque ligne de sortie peut renvoyer une métrique. + * `split_by` explique comment diviser chaque ligne en différents champs. Dans ce cas, nous utilisons les expressions régulières `\s+`, qui indiquent Flex que toute séquence d'un ou plusieurs espaces blancs est un séparateur. + * `row_start` spécifie que les données commencent juste après la première ligne (qui est 0). + * `set_header` spécifie, dans l'ordre, un nom correspondant pour chaque valeur de l'éventail susmentionné. + * `perc_to_decimal: true` indique de convertir n'importe quelle chaîne de pourcentage en une valeur décimale, en supprimant le symbole `%` de fin. + + Une fois la configuration Flex créée, l'agent d'infrastructure détecte automatiquement la nouvelle configuration et commence à collecter des données. Pour vérifier que votre nouvelle intégration fonctionne, exécutez cette requête : + + ```sql + FROM FileSystemSample + SELECT mountedOn, fs, usedBytes, capacityBytes, usedBytes + ``` + + La requête devrait donner un tableau similaire à celui-ci : + + Flex status table + +
+ Accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Query your data**, ajoutez votre requête dans le générateur de requêtes et cliquez sur **Run**. +
+
+
+ +## Comment ajouter plus d'intégration Flex [#add-more-integrations] + +Vous pouvez ajouter davantage d'intégration Flex en ajoutant la configuration dans le fichier `ìntegrations.d`. La configuration autonome Flex commence par le nom de l'intégration et vous pouvez les tester en invoquant Flex depuis la ligne de commande : + +```bash +sudo /var/db/newrelic-infra/newrelic-integrations/bin/nri-flex --verbose --pretty --config_file ./myconfig.yml +``` + +Par exemple, si vous souhaitez ajouter cette intégration : + +```yaml +name: linuxOpenFD +apis: + - name: linuxOpenFD + commands: + - run: cat /proc/sys/fs/file-nr | awk '{print $1-$2,$3}' + split: horizontal + set_header: [openFD,maxFD] + regex_match: true + split_by: (\d+)\s+(.*) +``` + +Vous devez ouvrir le fichier `ìntegrations.d` et l'ajouter comme ceci : + +```yaml +integrations: + - name: nri-flex + config: + name: linuxFileSystemIntegration + apis: + - name: FileSystem + commands: + - run: 'df -PT -B1 -x tmpfs -x xfs -x vxfs -x btrfs -x ext -x ext2 -x ext3 -x ext4' + split: horizontal + split_by: \s+ + row_start: 1 + set_header: [fs,fsType,capacityBytes,usedBytes,availableBytes,usedPerc,mountedOn] + perc_to_decimal: true + + - name: linuxOpenFD + commands: + - run: cat /proc/sys/fs/file-nr | awk '{print $1-$2,$3}' + split: horizontal + set_header: [openFD,maxFD] + regex_match: true + split_by: (\d+)\s+(.*) +``` + +Si vous devez ajouter plusieurs Flex configuration au `ìntegrations.d` fichier, suivez ce modèle : + +```yaml +integrations: + - name: nri-flex + config: + name: flexName_1 + # Flex config goes here + - name: nri-flex + config: + name: flexName_2 + # Flex config goes here + - name: nri-flex + config: + name: flexName_3 + # Flex config goes here +``` + +Pour minimiser les problèmes d'indentation, vous pouvez créer un lien vers des fichiers de configuration Flex autonomes à l'aide de la directive `config_template_path` : + +```yaml +integrations: + - name: nri-flex + config_template_path: /path/to/flex/integration.yml +``` + +Vous pouvez trouver de nombreux exemples d'intégration personnalisée dans le [référentielFlex ](https://github.com/newrelic/nri-flex/blob/master/examples). + +## Flex et Kubernetes [#flex-k8s] + +Il existe 3 images de conteneur que vous pouvez utiliser, selon la manière dont vous souhaitez configurer Flex dans Kubernetes : + +* Pour exécuter Flex uniquement sur les services de monitoring exécutés dans Kubernetes, utilisez l'image conteneur `newrelic/infrastructure`. Cette image contient uniquement l'agent infrastructure et l'intégration Docker et Flex . Avec cette option, vous ne pourrez pas effectuer de découverte de service ni utiliser une autre intégration New Relic. + +* Pour exécuter Flex avec d’autres intégrations New Relic, utilisez l’image conteneur `newrelic/infrastructure-bundle`. Cela ajoute toutes les autres intégrations de New Relic. + +* Si vous souhaitez également monitorer votre cluster Kubernetes, utilisez l'image conteneur `newrelic/infrastructure-k8s`. Cette image ajoute toute l'intégration, y compris l'intégration Kubernetes . + + + Si vous exécutez des services dans Kubernetes, nous vous recommandons d'utiliser les images de conteneur officielles de New Relic. Consultez [Introduction à l’intégration de Kubernetes](/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration/) pour plus d’informations. + + +### Configurer Flex dans Kubernetes [#configure-flex-k8s] + +Après avoir installé l'[intégration Kubernetes](/install/kubernetes/), l'agent d'infrastructure sera exécuté dans votre cluster ainsi que ces 2 `configMap`: + +* `nri-default-integration-cfg`:Il s'agit d'un `configMap` utilisé pour activer l'intégration New Relic Kubernetes. Vous pouvez le supprimer si vous ne souhaitez pas utiliser cette intégration. Si vous avez installé Kubernetes avec la [commande Helm](/install/kubernetes/?dropdown1=helm), la valeur `integrations_config` doit être renseignée. Consultez le [référentiel de cartes Helm de New Relic](https://github.com/newrelic/helm-charts) pour plus d'informations. + +* `nri-integration-cfg-example`: Il s'agit d'un `configMap` utilisé pour activer Flex et d'autres intégrations New Relic. + +Pour activer Flex, créez une section de données dans le `configMap` et ajoutez la configuration d'intégration de l'agent d'infrastructure sous cette nouvelle section : + +```yaml +apiVersion: v1 +kind: ConfigMap +metadata: + name: nri-integration-cfg-example + namespace: default +data: + nri-flex.yml: | + integrations: + - name: nri-flex + config: + name: example + apis: + - event_type: ExampleSample + url: https://my-host:8443/admin/metrics.json +``` + +## Exemple de configuration [#sample-configurations] + +Vous recherchez des échantillons différents ? Voici quelques exemples de configuration pour vous aider à démarrer avec différentes sources de données : + +* **Base de données**: + + * [MySQL](https://github.com/newrelic/nri-flex/blob/master/examples/mysql-database-example.yml) + * [Oracle](https://github.com/newrelic/nri-flex/blob/master/examples/oracle-database-example.yml) + * [PostgreSQL](https://github.com/newrelic/nri-flex/blob/master/examples/postgres-db-example.yml) + +* **API tierces**: + + * [API JSON](https://github.com/newrelic/nri-flex/blob/master/examples/http-json-example.yml) + * État de santé [de Twilio](https://github.com/newrelic/nri-flex/blob/master/examples/twilio-status.yml) + +* **Utilitaires de ligne de commande**: + + * [AWS CLI](https://github.com/newrelic/nri-flex/blob/master/examples/aws-cli-example.yml) + * [Linux](https://github.com/newrelic/nri-flex/blob/master/examples/linux/linux-memory.yml) + * [Windows PowerShell](https://github.com/newrelic/nri-flex/blob/master/examples/windows/windows-iis-app-pool-status.yml) + +## Dépannage [#troubleshooting] + +Si vous rencontrez un problème avec la configuration Flex, vous pouvez suivre ces étapes de dépannage de base : + +* Testez la configuration sans l’agent d’infrastructure : vous pouvez tester manuellement un fichier de configuration pour vous assurer que la sortie répond à vos attentes en exécutant une commande comme celle-ci. N'oubliez pas de remplacer `` par le nom de votre fichier de configuration : + + ```shell + # Linux default path: /opt/newrelic-infra/newrelic-integrations/bin/ + ./nri-flex -verbose -pretty -config_path /etc/newrelic-infra/integrations.d/ + + # Windows default path: C:\Program Files\New Relic\newrelic-infra\newrelic-integrations + .\nri-flex.exe -verbose -pretty -config_path "C:\Program Files\New Relic\newrelic-infra\integrations.d\" + ``` + + Cela vous donnera une sortie montrant le logging de débogage et la charge utile JSON qui sera intégrée à l'agent d'infrastructure. Assurez-vous que Flex obtient et formate votre télémétrie comme prévu avant de continuer avec le reste des étapes de dépannage. Apprenez-en plus sur les tests de configuration Flex à partir du [référentiel GitHub](https://github.com/newrelic/nri-flex/blob/master/docs/troubleshooting.md#testing-a-config). + +* Tester avec l'agent d'infrastructure en mode `dry-run` : utilisez l'[indicateur`dry-run` ](/docs/infrastructure/host-integrations/troubleshooting/run-integrations-manually/)dans l'agent d'infrastructure pour tester votre configuration Flex. Vérifiez que la sortie contient la télémétrie que vous prévoyez de signaler à New Relic. + +* Déboguer l'intégration avec l'agent infrastructure : Assurez-vous que l'agent signale les données télémétriques comme prévu en [activant le log de débogage](/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/generate-logs-troubleshooting-infrastructure/) dans l'agent infrastructure . + + + Vous pouvez récupérer le binaire autonome à partir d'[ici](https://github.com/newrelic/nri-flex/releases). Consultez le fichier [README](https://github.com/newrelic/nri-flex?tab=readme-ov-file#new-relic-flex) pour en savoir plus sur Flex + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/hashicorp-consul-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/hashicorp-consul-monitoring-integration.mdx new file mode 100644 index 00000000000..d1797c2efdc --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/hashicorp-consul-monitoring-integration.mdx @@ -0,0 +1,1119 @@ +--- +title: Intégration monitoring HashiCorp Consul +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: 'New Relic''s HashiCorp integration: what data it reports and how to configure it.' +freshnessValidatedDate: never +translationType: machine +--- + +Notre [intégration HashiCorp Consul sur hôte](/docs/integrations/host-integrations/getting-started/introduction-host-integrations) collecte et envoie l'inventaire et les métriques de votre environnement data center Consul à New Relic, où vous pouvez voir l'état de santé de votre environnement. Nous collectons des données à la fois au niveau du data center et au niveau de l'agent/nœud. + + + Notez que nous avons également une [intégration de la plateforme HashiCorp Cloud Consul](/docs/infrastructure/host-integrations/host-integrations-list/hashicorp-consul-monitoring-integration). + + +## Compatibilité et exigences [#comp-req] + +Avant l'installation, assurez-vous de répondre aux exigences suivantes : + +* Notre intégration est compatible avec HashiCorp Consul 1.0 ou supérieur. +* Si vous utilisez ACL, les informations d’identification pour l’intégration Consul doivent avoir les stratégies `agent:read`, `node:read` et `service:read`. + +## Démarrage rapide [#quick] + +instrumentez votre environnement Consul rapidement et envoyez vos données télémétriques avec installation guidée. Notre guide d'installation utilise notre agent infrastructure et notre CLI pour configurer l'intégration HashiCorp, et découvre d'autres applications et sources log exécutées dans votre environnement, puis recommande celles que vous devez instrumenter. + +L'installation guidée fonctionne avec la plupart des configurations. Mais si cela ne répond pas à vos besoins, il existe d'autres options d'installation ci-dessous. + +Prêt à commencer ? Cliquez sur le bouton correspondant, en fonction de la [régiondata center ](/docs/accounts/accounts-billing/account-setup/choose-your-data-center)que vous utilisez. Une fois l'installation terminée, revenez à cette documentation pour consulter les options de configuration. + + + + installation guidée, région des États-Unis + + + + installation guidée, région UE + + + +## Installation [#install] + +Pour installer l'intégration HashiCorp Consul, suivez les instructions correspondant à votre environnement : + + + + Voir [le service de monitoring exécuté sur ECS](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). + + + ' ' + + + Voir [le service de monitoring exécuté sur Kubernetes](/docs/monitor-service-running-kubernetes). + + + + 1. Installez [l'agent d'infrastructure](/docs/integrations/host-integrations/installation/install-infrastructure-host-integrations/#install) et remplacez la variable `INTEGRATION_FILE_NAME` par `nri-consul`. + + 2. Changer de répertoire vers le dossier d'intégration : + + ``` + cd /etc/newrelic-infra/integrations.d + ``` + + 3. Copiez l’exemple de fichier de configuration : + + ``` + sudo cp consul-config.yml.sample consul-config.yml + ``` + + 4. Modifiez le fichier `consul-config.yml` comme décrit dans les [paramètres de configuration](#config). + + + + 1. Téléchargez l'image du programme d'installation `nri-consul` .MSI depuis : + + [https://download.newrelic.com/infrastructure\_agent/windows/integrations/nri-consul/nri-consul-amd64.msi](https://download.newrelic.com/infrastructure_agent/windows/integrations/nri-consul/nri-consul-amd64.msi) + + 2. Pour installer à partir de l’invite de commande Windows, exécutez : + + ``` + msiexec.exe /qn /i PATH\TO\nri-consul-amd64.msi + ``` + + 3. Dans le répertoire d’intégration, `C:\Program Files\New Relic\newrelic-infra\integrations.d\`, créez une copie du fichier configuration d’exemple en exécutant : + + ``` + copy consul-config.yml.sample consul-config.yml + ``` + + 4. Modifiez le fichier `consul-config.yml` comme décrit dans les [paramètres de configuration](#config). + + + +## Mettez à jour votre intégration [#update] + +Cette intégration ne se met pas à jour automatiquement. Pour de meilleurs résultats, mettez régulièrement [à jour le package d'intégration](/docs/integrations/host-integrations/installation/update-infrastructure-host-integration-package) et [l'agent d'infrastructure](/docs/infrastructure/new-relic-infrastructure/installation/update-infrastructure-agent). + +## Tâches post-installation [#after-install] + +Une fois l'installation terminée, vous pouvez définir les options de configuration. Certaines configurations sont nécessaires pour que l'intégration fonctionne, tandis que d'autres sont facultatives. + +### Configurer l'intégration [#config] + +Si vous avez activé cette intégration via notre intégration ECS ou Kubernetes, consultez ces documents : + +* [Kubernetes](/docs/monitor-service-running-kubernetes) +* [ECS](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs) + +Pour l'installation standard sur l'hôte, cette intégration est livrée avec un fichier de configuration YAML, `apache-config.yml`. Cette configuration vous permet de placer les informations de connexion requises et de configurer la manière dont les données sont collectées. Les options que vous modifiez dépendent de votre configuration et de vos préférences. Il est livré avec un exemple de fichier de configuration `apache-config.yml.sample` que vous pouvez copier et modifier. + +Les paramètres spécifiques liés à Consul sont définis à l'aide de la section `env` du fichier de configuration. Ces paramètres contrôlent la connexion à votre instance Consul ainsi que d'autres paramètres et fonctionnalités de sécurité. + + + Si vous utilisez toujours nos legacy fichiers configuration/définition, veuillez vous référer à ce [document](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format/) pour obtenir de l'aide. + + +#### Options de configuration du consul [#config-options] + +L'intégration Consul collecte à la fois des métriques et des informations d'inventaire. Ce tableau montre à quoi s’applique chaque option de configuration. + +' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **HOSTNAME** + + + nom d'hôte ou IP où Consul est exécuté. + + hôte local + + MI +
+ + **PORT** + + + Port sur lequel le consul écoute. + + 8500 + + MI +
+ + **TOKEN** + + + ACL jeton si l'authentification jeton est activée. + + N/A + + MI +
+ + **ENABLE\_SSL** + + + Connectez-vous en utilisant SSL. + + FAUX + + MI +
+ + **CA\_BUNDLE\_FILE** + + + Fichier groupé d'autorité de certification alternative. + + N/A + + MI +
+ + **CA\_BUNDLE\_DIR** + + + Répertoire de bundles d'autorités de certification alternatives. + + N/A + + MI +
+ + **TRUST\_SERVER\_CERTIFICATE** + + + Si défini sur vrai, le certificat du serveur n'est PAS vérifié pour SSL. + + FAUX + + MI +
+ + **FAN\_OUT** + + + Si la valeur est vraie, il tentera de collecter les métriques de tous les autres nœuds du cluster Consul. + + vrai + + M +
+ + **CHECK\_LEADERSHIP** + + + Vérifiez le leadership sur le serveur consulaire. Cela devrait être désactivé sur consul en mode client. + + vrai + + M +
+ + **TIMEOUT** + + + Délai d'expiration pour chacun des appels clients du consul. + + Années 30 + + MI +
+ + **METRICS** + + + Définissez sur `true` pour activer la collecte de métriques uniquement. + + FAUX + +
+ + **INVENTORY** + + + Définissez sur `true` pour activer la collecte d'inventaire uniquement. + + FAUX + +
+ +Les valeurs de ces paramètres peuvent être définies de plusieurs manières : + +* Ajout de la valeur directement dans le fichier de configuration. C'est la manière la plus courante. +* Remplacement des valeurs des variables d’environnement à l’aide de la notation `{{}}` . Cela nécessite l'agent d'infrastructure v1.14.0+. Lire la suite [ici](/docs/infrastructure/install-infrastructure-agent/configuration/configure-infrastructure-agent/#passthrough) ou voir l'exemple [ci-dessous](#envvar-replacement). +* Utilisation de la gestion des secrets. Utilisez ceci pour protéger les informations sensibles, telles que les mots de passe qui seraient exposés en texte brut dans le fichier de configuration. Pour plus d'informations, voir [Gestion des secrets](/docs/integrations/host-integrations/installation/secrets-management). + +### Étiquettes [#labels] + +Vous pouvez également décorer vos métriques à l’aide d’étiquettes. Les étiquettes vous permettent d'ajouter des paires d'attributs (valeur clé) à vos métriques, que vous pouvez ensuite utiliser pour interroger, filtrer ou regrouper vos métriques. + +Notre fichier de configuration d'exemple par défaut inclut des exemples d'étiquettes mais, comme ils ne sont pas obligatoires, vous pouvez supprimer, modifier ou ajouter de nouvelles étiquettes de votre choix. + +``` + labels: + env: production + role: load_balancer +``` + +## Exemple de configuration [#examples] + + + + Il s'agit de la configuration de base utilisée pour collecter les métriques et l'inventaire à partir de votre hôte local : + + ``` + integrations: + - name: nri-consul + env: + HOSTNAME: localhost + PORT: 8500 + interval: 15s + labels: + environment: production + inventory_source: config/consul + ``` + + + + Cette configuration collecte des métriques toutes les 30 secondes et un inventaire toutes les 60 secondes avec un délai d'expiration : + + ``` + integrations: + - name: nri-consul + env: + METRICS: true + HOSTNAME: localhost + PORT: 8500 + TIMEOUT: 10s + interval: 15s + labels: + environment: production + + - name: nri-consul + env: + INVENTORY: true + HOSTNAME: localhost + PORT: 8500 + TIMEOUT: 10s + interval: 60s + labels: + environment: production + inventory_source: config/consul + ``` + + + + Dans cette configuration nous utilisons la variable d'environnement `CONSUL_HOST` pour renseigner le paramètre nom d'hôte de l'intégration : + + ``` + integrations: + - name: nri-consul + env: + METRICS: "true" + HOSTNAME: {{CONSUL_HOST}} + PORT: 8500 + interval: 15s + labels: + env: production + role: load_balancer + ``` + + + + Dans cette configuration, nous utilisons un jeton ACL pour nous connecter et nous ne collectons pas de métriques à partir d'autres nœuds consul connectés (FAN\_OUT : false) : + + ``` + integrations: + - name: nri-consul + env: + METRICS: "true" + HOSTNAME: localhost + PORT: 8500 + TOKEN: my_token + FAN_OUT: false + interval: 15s + labels: + env: production + role: load_balancer + ``` + + + + Dans cette configuration nous monitoring plusieurs serveurs Consul à partir de la même intégration. Pour la première instance (`HOSTNAME: 1st_consul_host`), nous collectons des métriques et un inventaire tandis que pour la deuxième instance (`HOSTNAME: 2nd_consul_host`), nous collecterons uniquement des métriques. + + ``` + integrations: + - name: nri-consul + env: + METRICS: "true" + HOSTNAME: 1st_consul_host + PORT: 8500 + interval: 15s + labels: + env: production + role: load_balancer + - name: nri-consul + env: + INVENTORY: "true" + HOSTNAME: 1st_consul_host + PORT: 8500 + interval: 60s + labels: + env: production + role: load_balancer + inventory_source: config/consul + + - name: nri-consul + env: + METRICS: "true" + HOSTNAME: 2nd_consul_host + PORT: 8500 + interval: 15s + labels: + env: production + role: load_balancer + ``` + + + +## Rechercher et utiliser des données [#find-and-use] + +Les données de cette intégration peuvent être trouvées en allant à : **[one.newrelic.com](https://one.newrelic.com/all-capabilities) > Infrastructure > Third-party services > Apache**. + +Les données Apache sont attachées aux [types d'événements](/docs/using-new-relic/data/understand-data/new-relic-data-types#events-new-relic) `ConsulDatacenterSample`et `ConsulAgentSample`. Vous pouvez [interroger ces données](/docs/using-new-relic/data/understand-data/query-new-relic-data) à des fins de dépannage ou pour créer des graphiques et des dashboards personnalisés. + +Pour en savoir plus sur la recherche et l’utilisation de vos données, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +L'intégration HashiCorp Consul collecte l'attribut de données métriques suivant : + +### Exemples de mesures data center Consul [#consul-datacenter-sample] + +Ces attributs sont attachés au type d'événement `ConsulDatacenterSample` : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `consul.catalog.nodes_critical` + + Le nombre de nœuds avec le statut de service `critical` parmi ceux enregistrés. +
+ `consul.catalog.nodes_passing` + + Le nombre de nœuds avec le statut de service `passing` parmi ceux enregistrés. +
+ `consul.catalog.nodes_up` + + Le nombre de nœuds. +
+ `consul.catalog.nodes_warning` + + Le nombre de nœuds avec le statut de service `warning` parmi ceux enregistrés. +
+ `consul.catalog.total_nodes` + + Le nombre de nœuds enregistrés dans le cluster consul. +
+ `consul.memberlist.msg.suspect` + + Le nombre de fois qu'un agent soupçonne un autre d'avoir échoué lors d'une enquête dans le cadre du protocole de commérages. +
+ `consul.raft.apply` + + Le nombre de transactions de radeau en cours. +
+ `consul.raft.commitTime.avg` + + Le temps moyen nécessaire pour valider une nouvelle entrée dans le log du radeau sur le leader. +
+ `consul.raft.commitTime.count` + + Le nombre d'échantillons de `raft.commitTime`. +
+ `consul.raft.commitTime.max` + + Le temps maximum nécessaire pour valider une nouvelle entrée dans le log du radeau sur le leader. +
+ `consul.raft.commitTime.median` + + Le temps médian nécessaire pour valider une nouvelle entrée dans le log du radeau sur le leader. +
+ `consul.raft.leader.dispatchLog.avg` + + Le temps moyen nécessaire au leader pour écrire les entrées log sur le disque. +
+ `consul.raft.leader.dispatchLog.count` + + Le nombre d'échantillons de `raft.leader.dispatchLog`. +
+ `consul.raft.leader.dispatchLog.max` + + Le temps maximum nécessaire au leader pour écrire les entrées log sur le disque. +
+ `consul.raft.leader.dispatchLog.median` + + Le temps médian nécessaire au leader pour écrire les entrées log sur le disque. +
+ `consul.raft.leader.lastContact.avg` + + Le temps moyen écoulé depuis que le leader a pu vérifier pour la dernière fois son bail avec ses partisans. +
+ `consul.raft.leader.lastContact.count` + + Le nombre d'échantillons de `raft.leader.lastContact`. +
+ `consul.raft.leader.lastContact.max` + + Le temps maximum écoulé depuis que le leader a pu vérifier pour la dernière fois son bail avec ses suiveurs. +
+ `consul.raft.leader.lastContact.median` + + Le temps médian écoulé depuis que le leader a pu vérifier pour la dernière fois son bail avec ses suiveurs. +
+ `consul.raft.state.candidate` + + Le nombre d'élections de dirigeants initiées. +
+ `consul.raft.state.leader` + + Le nombre d’élections de dirigeants terminées. +
+ `consul.serf.member.flap` + + Le nombre de fois où un agent est marqué comme mort puis récupère rapidement. +
+ +### Exemples de mesures d'agent consul [#consul-agent-sample] + +Ces attributs sont attachés au type d'événement `ConsulAgentSample` : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `agent.aclCacheHit` + + Taux d'accès au cache ACL. +
+ `agent.aclCacheMiss` + + Échecs du cache ACL. +
+ `agent.kvStores` + + Le nombre d'échantillons de `kvs.apply`. +
+ `agent.kvStoresAvgInMilliseconds` + + Le temps moyen nécessaire pour terminer une mise à jour de la boutique KV. +
+ `agent.kvStoresMaxInMilliseconds` + + Le temps maximum nécessaire pour terminer une mise à jour de la boutique KV. +
+ `agent.kvStoresMedianInMilliseconds` + + Le temps médian nécessaire pour terminer une mise à jour de la boutique KV. +
+ `agent.peers` + + Le nombre de pairs dans l’ensemble de pairs. +
+ `agent.staleQueries` + + Requête servie dans le seuil d'obsolescence autorisé. +
+ `agent.txnAvgInMilliseconds` + + Le temps moyen nécessaire pour appliquer une opération de transaction. +
+ `agent.txnMaxInMilliseconds` + + Le temps maximum nécessaire pour appliquer une opération de transaction. +
+ `agent.txnMedianInMilliseconds` + + Le temps médian nécessaire pour appliquer une opération de transaction. +
+ `agent.txns` + + Le nombre d'échantillons de `txn.apply`. +
+ `client.rpcFailed` + + Mesure des requests RPC ayant échoué. +
+ `client.rpcLoad` + + Mesure de la quantité de charge qu'un agent effectue sur les serveurs Consul. +
+ `client.rpcRateLimited` + + Mesure des requests RPC dont le débit est limité. +
+ `net.agent.maxLatencyInMilliseconds` + + Latence maximale de ce nœud vers tous les autres. +
+ `net.agent.medianLatencyInMilliseconds` + + Latence médiane de ce nœud à tous les autres. +
+ `net.agent.minLatencyInMilliseconds` + + Latence minimale de ce nœud vers tous les autres. +
+ `net.agent.p25LatencyInMilliseconds` + + Latence P25 de ce nœud vers tous les autres. +
+ `net.agent.p75LatencyInMilliseconds` + + Latence P75 de ce nœud à tous les autres. +
+ `net.agent.p90LatencyInMilliseconds` + + Latence P90 de ce nœud vers tous les autres. +
+ `net.agent.p95LatencyInMilliseconds` + + Latence P95 de ce nœud à tous les autres. +
+ `net.agent.p99LatencyInMilliseconds` + + Latence P99 de ce nœud vers tous les autres. +
+ `runtime.allocations` + + Nombre cumulé d'objets de tas alloués. +
+ `runtime.allocationsInBytes` + + Les octets actuels alloués par le processus Consul. +
+ `runtime.frees` + + Nombre cumulé d'objets de tas libérés. +
+ `runtime.gcCycles` + + Le nombre de cycles GC terminés. +
+ `runtime.gcPauseInMilliseconds` + + Nanosecondes cumulées dans les pauses GC stop-the-world depuis le démarrage de Consul. +
+ `runtime.goroutines` + + Le nombre de goroutines d'exécution. +
+ `runtime.heapObjects` + + Le nombre d'objets alloués sur le tas +
+ `runtime.virtualAddressSpaceInBytes` + + Taille totale de l'espace d'adressage virtuel réservé par le goruntime. +
+ +## Données d'inventaire [#inventory] + +L'intégration HashiCorp Consul capture les paramètres de configuration et les paramètres actuels des nœuds Consul Agent. Il collecte les résultats des `/v1/agent/self` points de terminaison d'API REST. Il extrait les sections `Config` et `DebugConfig` de cette réponse. + + + **Note**: Les sections imbriquées dans `Config` et `DebugConfig` ne sont pas collectées. + + +Les données sont disponibles sur la [page Inventaire](/docs/infrastructure/new-relic-infrastructure/infrastructure-ui-pages/infrastructure-inventory-page-search-your-entire-infrastructure), sous la source **config/consul** . Pour en savoir plus sur les données d’inventaire, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations-getting-started/getting-started/understand-integration-data-data-types#inventory-data). + +## Vérifiez le code source [#source-code] + +Cette intégration est un logiciel open source. Cela signifie que vous pouvez [parcourir son code source](https://github.com/newrelic/nri-consul) et envoyer des améliorations, ou créer votre propre fork et le construire. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/install-apache-flink.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/install-apache-flink.mdx new file mode 100644 index 00000000000..104a39c5350 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/install-apache-flink.mdx @@ -0,0 +1,175 @@ +--- +title: Intégration Apache Flink +tags: + - Integrations + - Configure Prometheus OpenMetrics for Flink + - Apache Flink integration on New Relic +metaDescription: Get a dashboard of all your most important Flink metrics with our quickstart. +freshnessValidatedDate: never +translationType: machine +--- + +Avec notre dashboard Apache Flink, vous pouvez facilement suivre votre log, garder un œil sur vos instrumentation sources et obtenir un aperçu des temps de disponibilité et des temps d'arrêt pour toutes les instances de vos applications. Conçu avec notre agent infrastructure et notre intégration Prometheus OpenMetrics, Flink profite du scraping de points de terminaison OpenMetrics, afin que vous puissiez visualiser toutes vos données les plus importantes, le tout en un seul endroit. + +A screenshot of a dashboard with Apache Flink metrics. + +
+ Après avoir configuré Flink avec New Relic, vos données s'afficheront dans le dashboard comme ceux-ci, dès la sortie de la boîte. +
+ +## Installer l' agent d'infrastructure [#install] + +Avant d'importer les données Flink dans New Relic, installez d'abord notre agent infrastructure , puis exposez vos métriques en installant Prometheus OpenMetrics. + +Il existe deux manières d'installer notre agent d'infrastructure : + +* Grâce à notre [installation guidée](https://one.newrelic.com/nr1-core?state=5e236fa2-fbfd-1f53-e55d-9241d2a73068). + +* Installez l'agent d'infrastructure [manuellement](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux), via la ligne de commande. + +## Configurer Apache Flink pour exposer les métriques [#expose-apache-flink-metrics] + +Vous aurez besoin du fichier jar Apache Flink Prometheus pour exposer les métriques sur un port configuré. Idéalement, lors du téléchargement d'Apache Flink, le fichier nommé `flink-metrics-prometheus-VERSION.jar` sera placé dans le chemin ci-dessous. + +Chemin du fichier : `FLINK-DIRECTORY/plugins/metrics-prometheus/` + +Mettre à jour le fichier de configuration flink pour exposer les métriques sur les ports 9250 à 9260 + +Chemin du fichier de configuration Apache Flink : `FLINK-DIRECTORY/conf/flink-conf.yaml` + +```yml +metrics.reporters: prom +metrics.reporter.prom.class: org.apache.flink.metrics.prometheus.PrometheusReporter +metrics.reporter.prom.factory.class: org.apache.flink.metrics.prometheus.PrometheusReporterFactory +metrics.reporter.prom.host: localhost +metrics.reporter.prom.port: 9250-9260 +``` + +Suivez la commande ci-dessous pour démarrer un cluster Apache Flink + +```bash +./bin/start-cluster.sh +``` + +Vous devriez maintenant pouvoir voir les métriques sur les URL ci-dessous + +* Métriques du gestionnaire de tâches + +```yml +http://YOUR_DOMAIN:9250 +``` + +* Métriques du gestionnaire de tâches + +```yml +http://YOUR_DOMAIN:9251 +``` + +Vous pouvez également vérifier si d’autres ports du gestionnaire de tâches sont en cours d’exécution sur votre PC en exécutant la commande ci-dessous : + +```yml +sudo lsof -i -P -n | grep LISTEN +``` + +## Configure `nri-prometheus` [#configure] + +Tout d’abord, créez un fichier nommé `nri-prometheus-config.yml` dans le chemin ci-dessous + +Chemin: `/etc/newrelic-infra/integrations.d` + +Maintenant, mettez à jour les champs répertoriés ci-dessous : + +* cluster : « YOUR\_DESIRED\_CLUSTER\_NAME », par exemple : `cluster_name: "apache_flink"` + +* urls: \["http\://YOUR\_DOMAIN:9250", "http\://YOUR\_DOMAIN:9251"], par exemple : `urls: ["http://localhost:9250", "http://localhost:9251"]` + +Votre fichier `nri-prometheus-config.yml` devrait ressembler à ceci : + +```yml +integrations: + - name: nri-prometheus + config: + standalone: false + # Defaults to true. When standalone is set to `false`, `nri-prometheus` requires an infrastructure agent to send data. + emitters: infra-sdk + # When running with infrastructure agent emitters will have to include infra-sdk + cluster_name: "YOUR_DESIRED_CLUSTER_NAME" + # Match the name of your cluster with the name seen in New Relic. + targets: + - description: "YOUR_DESIRED_DESCRIPTION_HERE" + urls: ["http://YOUR_DOMAIN:9250", "http://YOUR_DOMAIN:9251"] + # tls_config: + # ca_file_path: "/etc/etcd/etcd-client-ca.crt" + # cert_file_path: "/etc/etcd/etcd-client.crt" + # key_file_path: "/etc/etcd/etcd-client.key" + + verbose: false + # Defaults to false. This determines whether or not the integration should run in verbose mode. + audit: false + # Defaults to false and does not include verbose mode. Audit mode logs the uncompressed data sent to New Relic and can lead to a high log volume. + # scrape_timeout: "YOUR_TIMEOUT_DURATION" + # `scrape_timeout` is not a mandatory configuration and defaults to 30s. The HTTP client timeout when fetching data from endpoints. + scrape_duration: "5s" + # worker_threads: 4 + # `worker_threads` is not a mandatory configuration and defaults to `4` for clusters with more than 400 endpoints. Slowly increase the worker thread until scrape time falls between the desired `scrape_duration`. Note: Increasing this value too much results in huge memory consumption if too many metrics are scraped at once. + insecure_skip_verify: false + # Defaults to false. Determins if the integration should skip TLS verification or not. + timeout: 10s +``` + +## Configurer manuellement le transfert de log [#logs] + +Vous pouvez utiliser notre documentation [sur le transfert de log](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/) pour transférer des logs spécifiques à l'application vers New Relic. + +Lors de l'installation de l'agent infrastructure sur les machines Linux, votre fichier de log nommé `logging.yml` doit être présent dans ce chemin : `/etc/newrelic-infra/logging.d/`. + +Si vous ne voyez pas votre fichier de log dans le chemin ci-dessus, vous devrez alors créer un fichier de log en suivant la documentation de transfert de logci-dessus. + +Voici un exemple du nom log qui ressemblera à celui ci-dessous : + +```yml +- name: flink-u1-taskexecutor-0-u1-VirtualBox.log +``` + +Ajoutez le script ci-dessous au fichier `logging.yml` pour envoyer le log Apache Flink à New Relic. + +```yml +logs: + - name: flink-.log + file: /log/flink-.log + attributes: + logtype: flink_logs +``` + +## Redémarrer l'agent New Relic Infrastructure [#restart-infrastructure-agent] + +Avant de pouvoir commencer à lire vos données, [redémarrez votre agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/). + +## moniteur Apache Flink sur New Relic + +Si vous souhaitez utiliser notre modèle dashboard prédéfini nommé Apache Flink pour monitorer vos métriques Apache Flink, suivez ces étapes : + +1. Allez à **[one.newrelic.com](https://one.newrelic.com/)** et cliquez sur **+ Integrations & Agents**. +2. Cliquez sur l’onglet **Dashboards** . +3. Dans le champ de recherche, recherchez **Apache Flink**. +4. Cliquez sur le Apache Flink pour l'installer sur dashboard votre compte. + +Une fois votre application intégrée en suivant les étapes ci-dessus, le dashboard devrait refléter les métriques dessus. + +Pour intrumenter le Apache Flink quickstart et voir les métriques et les alertes, vous pouvez également suivre notre [pageApache Flink quickstart ](https://newrelic.com/instant-observability/apache-flink)en cliquant sur le **Install now** bouton. + +## Utilisez NRQL pour interroger vos données + +Vous pouvez utiliser NRQL pour [interroger vos données](/docs/apis/nerdgraph/examples/nerdgraph-nrql-tutorial/). Par exemple, si vous souhaitez afficher le nombre total de points de contrôle terminés sur le générateur de requêtes de New Relic, utilisez cette requête NRQL : + +```sql +FROM Metric SELECT latest(flink_jobmanager_job_numberOfCompletedCheckpoints) AS 'Number of Completed Checkpoints' +``` + +## Quelle est la prochaine étape ? + +Si vous souhaitez personnaliser davantage votre dashboard Apache Flink, vous pouvez en savoir plus sur la création de requêtes NRQL et la gestion de vos dans l'UI de New Relic : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage du dashboard ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/kafka/kafka-config.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/kafka/kafka-config.mdx new file mode 100644 index 00000000000..63b348e9853 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/kafka/kafka-config.mdx @@ -0,0 +1,2221 @@ +--- +title: Paramètres de configuration de l'intégration de Kafka +tags: + - Integrations + - On-host integrations + - On-host integrations list + - Advanced configuration +metaDescription: Advanced configuration New Relic's Kafka integration. +freshnessValidatedDate: never +translationType: machine +--- + +Cette intégration est un logiciel open source. Cela signifie que vous pouvez [parcourir son code source](https://github.com/newrelic/nri-kafka) et envoyer des améliorations ou créer votre propre fork et le construire. + +## Libellés et attribut personnalisé [#labels] + +Les variables d'environnement peuvent être utilisées pour contrôler les paramètres de configuration, tels que votre , et sont ensuite transmises à l'agent d'infrastructure. Pour obtenir des instructions sur l’utilisation de cette fonctionnalité, consultez [Configurer l’agent d’infrastructure](/docs/infrastructure/new-relic-infrastructure/configuration/configure-infrastructure-agent#passthrough). + +Vous pouvez également décorer vos métriques à l’aide d’étiquettes. Les étiquettes vous permettent d'ajouter des paires valeur-clé à vos métriques que vous pouvez ensuite utiliser pour interroger, filtrer ou regrouper vos métriques.
Notre fichier de configuration d'exemple par défaut inclut des exemples d'étiquettes mais, comme ils ne sont pas obligatoires, vous pouvez supprimer, modifier ou ajouter de nouvelles étiquettes de votre choix. + +```yaml + labels: + env: production + role: kafka +``` + +Pour en savoir plus sur la structure générale de l'intégration sur configuration hôte, consultez la [configuration](/docs/integrations/integrations-sdk/file-specifications/host-integration-configuration-overview). + +## Données d'inventaire [#inventory] + +L'intégration Kafka capture les paramètres de configuration du courtier et du sujet non par défaut et collecte les schémas de partition de sujet tels que rapportés par ZooKeeper. Les données sont disponibles sur la [page de UI d'inventaire](/docs/infrastructure/new-relic-infrastructure/infrastructure-ui-pages/infrastructure-inventory-page-search-your-entire-infrastructure) sous la source `config/kafka`. + +## Configurer la collection KafkaBrokerSample et KafkaTopicSample [#broker-collection] + +L'intégration Kafka collecte à la fois les informations Métriques et Inventaire. Consultez la colonne **Applies To** ci-dessous pour voir les paramètres disponibles pour chaque collection : + +' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **CLUSTER\_NAME** + + + nom défini par l'utilisateur pour identifier de manière unique le cluster monitoré. **Required**. + + N/A + + MI +
+ + **KAFKA\_VERSION** + + + La version du courtier Kafka à laquelle vous vous connectez, utilisée pour définir les versions d'API optimales. Elle doit correspondre -ou être inférieure- à la version du courtier. + + Les versions antérieures à 1.0.0 peuvent manquer de certaines fonctionnalités. + + Notez que si le nom binaire du courtier est `kafka_2.12-2.7.0`, la version de l'API Kafka à utiliser est 2.7.0 et la précédente 2.12 est la version du langage Scala. + + 1.0.0 + + MI +
+ + **AUTODISCOVER\_STRATEGY** + + + la méthode de découverte des courtiers. Les options sont `zookeeper` ou `bootstrap`. + + zookeeper + + MI +
+ + **METRICS** + + + Définissez sur `true` pour activer la collecte Métriques uniquement. + + FAUX + +
+ + **INVENTORY** + + + Définissez sur `true` pour activer la collecte d’inventaire uniquement. + + FAUX + +
+ +## Arguments de découverte automatique de Zookeeper [#zookeeper-discovery] + +Ceux-ci ne sont pertinents que lorsque l'option `autodiscover_strategy` est définie sur `zookeeper`. + +' ' ' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **ZOOKEEPER\_HOSTS** + + + La liste des hôtes Apache ZooKeeper (au format JSON) qui doivent être connectés. + + + **If `CONSUMER_OFFSET` is set to `false` `KafkaBrokerSamples` and `KafkaTopicSamples` will be collected.** + + + \[] + + MI +
+ + **ZOOKEEPER\_AUTH\_SCHEME** + + + Le schéma d'authentification ZooKeeper utilisé pour se connecter. Actuellement, la seule valeur prise en charge est `digest`. Si omis, aucune authentification n'est utilisée. + + N/A + + MI +
+ + **ZOOKEEPER\_AUTH\_SECRET** + + + Le secret d'authentification ZooKeeper utilisé pour se connecter. Doit être de la forme `username:password`. Requis uniquement si `zookeeper_auth_scheme` est spécifié. + + N/A + + MI +
+ + **ZOOKEEPER\_PATH** + + + Le nœud Zookeeper sous lequel réside la configuration Kafka. La valeur par défaut est `/`. + + N/A + + MI +
+ + **PREFERRED\_LISTENER** + + + Utilisez un écouteur spécifique pour vous connecter à un courtier. Si cette option n'est pas définie, le premier écouteur qui réussit une connexion de test est utilisé. Les valeurs prises en charge sont `PLAINTEXT`, `SASL_PLAINTEXT`, `SSL` et `SASL_SSL`. + + **Notez que les protocoles `SASL_*` prennent uniquement en charge l’authentification Kerberos (GSSAPI).** + + N/A + + MI +
+ +## Arguments de découverte du courtier Bootstrap [#bootstrap-discovery] + +Ceux-ci ne sont pertinents que lorsque l'option `autodiscover_strategy` est définie sur`bootstrap` + +' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **BOOTSTRAP\_BROKER\_HOST** + + + L'hôte du courtier bootstrap. + + + **If `CONSUMER_OFFSET` is set to `false` `KafkaBrokerSamples` and `KafkaTopicSamples` will be collected.** + + + N/A + + MI +
+ + **BOOTSTRAP\_BROKER\_KAFKA\_PORT** + + + Le port Kafka pour le courtier bootstrap. + + N/A + + MI +
+ + **BOOTSTRAP\_BROKER\_KAFKA\_PROTOCOL** + + + Le protocole à utiliser pour se connecter au courtier bootstrap. Les valeurs prises en charge sont `PLAINTEXT`, `SASL_PLAINTEXT`, `SSL` et `SASL_SSL`. + + **Notez que les protocoles `SASL_*` prennent uniquement en charge l’authentification Kerberos (GSSAPI).** + + PLAINTEXT + + MI +
+ + **BOOTSTRAP\_BROKER\_JMX\_PORT** + + + Le port JMX à utiliser pour la collecte sur chaque courtier du cluster. + + + **Note that all discovered brokers should have JMX active on this port** + + + N/A + + MI +
+ + **BOOTSTRAP\_BROKER\_JMX\_USER** + + + L'utilisateur JMX à utiliser pour la collecte sur chaque courtier du cluster. + + N/A + + MI +
+ + **BOOTSTRAP\_BROKER\_JMX\_PASSWORD** + + + Le mot de passe JMX à utiliser pour la collecte sur chaque courtier du cluster. + + N/A + + MI +
+ +## Options JMX [#jmx] + +Ces options s'appliquent à toutes les connexions JMX sur l'instance. + +' ' ' ' ' ' ' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **KEY\_STORE** + + + Le chemin d'accès du magasin de clés contenant le certificat SSL du client JMX. + + N/A + + MI +
+ + **KEY\_STORE\_PASSWORD** + + + Le mot de passe du magasin de clés SSL JMX. + + N/A + + MI +
+ + **TRUST\_STORE** + + + Le chemin d'accès du magasin de clés de confiance contenant le certificat SSL du serveur JMX. + + N/A + + MI +
+ + **TRUST\_STORE\_PASSWORD** + + + Le mot de passe du magasin de confiance JMX. + + N/A + + MI +
+ + **DEFAULT\_JMX\_USER** + + + L'utilisateur par défaut qui se connecte à l'hôte JMX pour collecter des métriques. Si le champ nom d'utilisateur est omis pour un hôte JMX, cette valeur sera utilisée. + + administrateur + + MI +
+ + **DEFAULT\_JMX\_PASSWORD** + + + Le mot de passe par défaut pour se connecter à l'hôte JMX. Si le champ de mot de passe est omis pour un hôte JMX, cette valeur sera utilisée. + + administrateur + + MI +
+ + **TIMEOUT** + + + Le délai d'expiration d'une requête JMX individuelle en millisecondes. + + 10000 + + MI +
+ +## Options de connexion TLS du courtier [#broker-tls] + +Vous avez besoin de ces options si le protocole du courtier est `SSL` ou `SASL_SSL`. + +' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **TLS\_CA\_FILE** + + + Le fichier d'autorité de certification pour les écouteurs SSL et SASL\_SSL, au format PEM. + + N/A + + MI +
+ + **TLS\_CERT\_FILE** + + + Le fichier de certificat client pour les écouteurs SSL et SASL\_SSL, au format PEM. + + N/A + + MI +
+ + **TLS\_KEY\_FILE** + + + Le fichier de clé client pour les écouteurs SSL et SASL\_SSL, au format PEM. + + N/A + + MI +
+ + **TLS\_INSECURE\_SKIP\_VERIFY** + + + Ignorez la vérification de la chaîne de certificats et du nom d'hôte du serveur. + + FAUX + + MI +
+ +## Options de connexion SASL et Kerberos du courtier [#broker-sasl-kerberos] + +Vous avez besoin de ces options si le protocole du courtier est `SASL_PLAINTEXT` ou `SASL_SSL`. + +' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **SASL\_MECHANISM** + + + Le type d'authentification SASL à utiliser. Les options prises en charge sont `SCRAM-SHA-512`, `SCRAM-SHA-256`, `PLAIN` et `GSSAPI`. + + N/A + + MI +
+ + **SASL\_USERNAME** + + + Nom d'utilisateur SASL requis avec les mécanismes PLAIN et SCRAM. + + N/A + + MI +
+ + **SASL\_PASSWORD** + + + Mot de passe SASL requis avec les mécanismes PLAIN et SCRAM. + + N/A + + MI +
+ + **SASL\_GSSAPI\_REALM** + + + Domaine Kerberos requis avec le mécanisme GSSAPI. + + N/A + + MI +
+ + **SASL\_GSSAPI\_SERVICE\_NAME** + + + Nom de service Kerberos requis avec le mécanisme GSSAPI. + + N/A + + MI +
+ + **SASL\_GSSAPI\_USERNAME** + + + Nom d'utilisateur Kerberos requis avec le mécanisme GSSAPI. + + N/A + + MI +
+ + **SASL\_GSSAPI\_KEY\_TAB\_PATH** + + + Chemin d'accès à la clé Kerberos requis avec le mécanisme GSSAPI. + + N/A + + MI +
+ + **SASL\_GSSAPI\_KERBEROS\_CONFIG\_PATH** + + + Chemin de configuration Kerberos requis avec le mécanisme GSSAPI. + + /etc/krb5.conf + + MI +
+ + **SASL\_GSSAPI\_DISABLE\_FAST\_NEGOTIATION** + + + Désactiver la négociation FAST. + + FAUX + + MI +
+ +## Filtrage de la collection Broker [#broker-filteri] + +' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **LOCAL\_ONLY\_COLLECTION** + + + Collectez uniquement les métriques liées au courtier bootstrap configuré. Utilisé uniquement si `autodiscover_strategy` est `bootstrap`. + + + **Environments that use discovery (such as Kubernetes) must be set to true because othwerwise brokers will be discovered twice: By the integration, and by the discovery mechanism, leading to duplicate data.** + + + + **Note that activating this flag will skip KafkaTopicSample collection** + + + FAUX + + MI +
+ + **TOPIC\_MODE** + + + Détermine le nombre de sujets que nous collectons. Les options sont `all`, `none`, `list` ou `regex`. + + aucun + + MI +
+ + **TOPIC\_LIST** + + + Gamme JSON de noms de sujets à monitorer. Uniquement en vigueur si `topic_mode` est défini sur `list`. + + \[] + + MI +
+ + **TOPIC\_REGEX** + + + Modèle d'expression régulière qui fait correspondre les noms de sujets au moniteur. Uniquement en vigueur si `topic_mode` est défini sur `regex`. + + N/A + + MI +
+ + **TOPIC\_BUCKET** + + + Utilisé pour diviser la collection de sujets sur plusieurs instances. Doit être de la forme `/`. + + 1/1 + + MI +
+ + **COLLECT\_TOPIC\_SIZE** + + + Collectez la taille du sujet métrique. Les options sont `true` ou `false`, la valeur par défaut est `false`. + + + **This is a resource-intensive metric to collect, especially against many topics.** + + + FAUX + + MI +
+ + **COLLECT\_TOPIC\_OFFSET** + + + Collectez le décalage du sujet métrique. Les options sont `true` ou `false`, la valeur par défaut est `false`. + + + **This is a resource-intensive metric to collect, especially against many topics.** + + + FAUX + + MI +
+ +## Configurer la collection KafkaConsumerSample et KafkaProducerSample [#KafkaConsumerSample-collection] + +L'intégration Kafka collecte à la fois les informations Métriques(M) et Inventaire(I). Consultez la colonne **Applies To** ci-dessous pour savoir quels paramètres peuvent être utilisés pour chaque collection spécifique : + +' ' ' ' ' ' ' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **CLUSTER\_NAME** + + + nom défini par l'utilisateur pour identifier de manière unique le cluster monitoré. **Required**. + + N/A + + MI +
+ + **PRODUCERS** + + + Les producteurs à collectionner. Pour chaque producteur, un `name`, `hostname`, `port`, `username` et `password` peuvent être spécifiés au format JSON. `name` est le nom du producteur tel qu'il apparaît dans Kafka. Si ce paramètre n'est pas défini, les métriques de tous les producteurs de l'hôte : port seront collectées. `host`, `port`, `username` et `password` sont les paramètres JMX facultatifs et utilisent la valeur par défaut s'ils ne sont pas spécifiés. Il est également possible de définir la valeur `default` pour laisser `name` indéfini et utiliser les valeurs par défaut pour `host`, `port`, `username` et `password`. Requis pour produire KafkaProducerSample. + + + **Examples:** + + + `[{"host": "localhost", "port": 24, "username": "me", "password": "secret"}]` + + `[{"name": "myProducer", "host": "localhost", "port": 24, "username": "me", "password": "secret"}]` + + \[] + + MI +
+ + **CONSUMERS** + + + consommateur à collecter. Pour chaque consommateur, un `name`, `hostname`, `port`, `username` et `password` peuvent être spécifiés au format JSON. `name` est le nom du consommateur tel qu'il apparaît dans Kafka. Si elle n'est pas définie, les métriques de tous les consommateurs de l'hôte:port seront collectées. `host`, `port`, `username` et `password` sont les paramètres JMX facultatifs et utilisent la valeur par défaut s'ils ne sont pas spécifiés. Il est également possible de définir la valeur `default` pour laisser `name` indéfini et utiliser les valeurs par défaut pour `host`, `port`, `username` et `password`. Requis pour produire KafkaConsumerSample. + + + **Examples:** + + + `[{"host": "localhost", "port": 24, "username": "me", "password": "secret"}]` + + `[{"name": "myConsumer", "host": "localhost", "port": 24, "username": "me", "password": "secret"}]` + + \[] + + MI +
+ + **DEFAULT\_JMX\_HOST** + + + L'hôte par défaut pour collecter les métriques JMX. Si le champ hôte est omis d'une configuration de producteur ou de consommateur, cette valeur sera utilisée. + + hôte local + + MI +
+ + **DEFAULT\_JMX\_PORT** + + + Le port par défaut pour collecter les métriques JMX. Si le champ de port est omis d'une configuration de producteur ou de consommateur, cette valeur sera utilisée. + + 9999 + + MI +
+ + **DEFAULT\_JMX\_USER** + + + L'utilisateur par défaut qui se connecte à l'hôte JMX pour collecter des métriques. Si le champ nom d'utilisateur est omis d'une configuration de producteur ou de consommateur, cette valeur sera utilisée. + + administrateur + + MI +
+ + **DEFAULT\_JMX\_PASSWORD** + + + Le mot de passe par défaut pour se connecter à l'hôte JMX. Si le champ mot de passe est omis d'une configuration de producteur ou de consommateur, cette valeur sera utilisée. + + administrateur + + MI +
+ + **METRICS** + + + Définissez sur `true` pour activer la collecte Métriques uniquement. + + FAUX + +
+ + **INVENTORY** + + + Définissez sur `true` pour activer la collecte d’inventaire uniquement. + + FAUX + +
+ +#### Options JMX SSL et délai d'expiration + +Ces options s'appliquent à toutes les connexions JMX sur l'instance. + +' ' ' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **KEY\_STORE** + + + Le chemin d'accès du magasin de clés contenant le certificat SSL du client JMX. + + N/A + + MI +
+ + **KEY\_STORE\_PASSWORD** + + + Le mot de passe du magasin de clés SSL JMX. + + N/A + + MI +
+ + **TRUST\_STORE** + + + Le chemin d'accès du magasin de clés de confiance contenant le certificat SSL du serveur JMX. + + N/A + + MI +
+ + **TRUST\_STORE\_PASSWORD** + + + Le mot de passe du magasin de confiance JMX. + + N/A + + MI +
+ + **TIMEOUT** + + + Le délai d'expiration d'une requête JMX individuelle en millisecondes. + + 10000 + + MI +
+ +## Configurer la collection KafkaOffsetSample [#KafkaOffsetSample-collection] + +L'intégration Kafka collecte à la fois les informations Métriques et Inventaire. Consultez la colonne **Applies To** ci-dessous pour savoir quels paramètres peuvent être utilisés pour chaque collection spécifique : + +' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **CLUSTER\_NAME** + + + nom défini par l'utilisateur pour identifier de manière unique le cluster monitoré. **Required**. + + N/A + + MI +
+ + **KAFKA\_VERSION** + + + La version du courtier Kafka à laquelle vous vous connectez, utilisée pour définir les versions d'API optimales. Elle doit correspondre -ou être inférieure- à la version du courtier. + + Les versions antérieures à 1.0.0 peuvent manquer de certaines fonctionnalités. + + **Note that if the broker binary name is kafka\_2.12-2.7.0 the Kafka api version to be used is 2.7.0, the preceding 2.12 is the Scala language version**. + + 1.0.0 + + MI +
+ + **AUTODISCOVER\_STRATEGY** + + + la méthode de découverte des courtiers. Les options sont `zookeeper` ou `bootstrap`. + + zookeeper + + MI +
+ + **CONSUMER\_OFFSET** + + + Renseignez les données de décalage du consommateur dans KafkaOffsetSample si elles sont définies sur true. + + + **Note that this option will skip Broker/Consumer/Producer collection and only collect KafkaOffsetSample** + + + FAUX + + MI +
+ + **CONSUMER\_GROUP\_REGEX** + + + modèle d'expression régulière qui correspond aux groupes de consommateurs pour lesquels collecter des statistiques de décalage. Ceci se limite à la collecte de statistiques pour 300 groupes de consommateurs. + + Remarque : cette option doit être définie lorsque CONSUMER\_OFFSET est vrai. + + N/A + + MI +
+ + **INACTIVE\_CONSUMER\_GROUP\_OFFSET** + + + Collecte les métriques de décalage des groupes de consommateurs sans consommateur actif, cela nécessite que consommateur soit défini sur true. + + FAUX + + MI +
+ + **CONSUMER\_GROUP\_OFFSET\_BY\_TOPIC** + + + Active une agrégation métrique supplémentaire pour consumerGroup par sujet. il nécessite que CONSUMER\_OFFSET soit défini sur true. + + N/A + + MI +
+ + **METRICS** + + + Définissez sur `true` pour activer la collecte Métriques uniquement. + + FAUX + +
+ + **INVENTORY** + + + Définissez sur `true` pour activer la collecte d’inventaire uniquement. + + FAUX + +
+ +## Arguments de découverte automatique de Zookeeper [#zookeeper-autodiscovery] + +Ceci n'est pertinent que lorsque l'option `autodiscover_strategy` est définie sur `zookeeper`. + +' ' ' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **ZOOKEEPER\_HOSTS** + + + La liste des hôtes Apache ZooKeeper (au format JSON) qui doivent être connectés. + + + **If `CONSUMER_OFFSET` is set to `false` `KafkaBrokerSamples` and `KafkaTopicSamples` will be collected.** + + + \[] + + MI +
+ + **ZOOKEEPER\_AUTH\_SCHEME** + + + Le schéma d'authentification ZooKeeper utilisé pour se connecter. Actuellement, la seule valeur prise en charge est `digest`. Si omis, aucune authentification n'est utilisée. + + N/A + + MI +
+ + **ZOOKEEPER\_AUTH\_SECRET** + + + Le secret d'authentification ZooKeeper utilisé pour se connecter. Doit être de la forme `username:password`. Requis uniquement si `zookeeper_auth_scheme` est spécifié. + + N/A + + MI +
+ + **ZOOKEEPER\_PATH** + + + Le nœud Zookeeper sous lequel réside la configuration Kafka. La valeur par défaut est `/`. + + N/A + + MI +
+ + **PREFERRED\_LISTENER** + + + Utilisez un écouteur spécifique pour vous connecter à un courtier. Si cette option n'est pas définie, le premier écouteur qui réussit une connexion de test est utilisé. Les valeurs prises en charge sont `PLAINTEXT`, `SASL_PLAINTEXT`, `SSL` et `SASL_SSL`. + + **Notez que les protocoles `SASL_*` prennent uniquement en charge l’authentification Kerberos (GSSAPI).** + + N/A + + MI +
+ +## Arguments de découverte du courtier Bootstrap [#bootstrap-broker] + +Ceci n'est pertinent que lorsque l'option `autodiscover_strategy` est définie sur `bootstrap`. + +' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **BOOTSTRAP\_BROKER\_HOST** + + + L'hôte du courtier bootstrap. + + + **If `CONSUMER_OFFSET` is set to `false` `KafkaBrokerSamples` and `KafkaTopicSamples` will be collected.** + + + N/A + + MI +
+ + **BOOTSTRAP\_BROKER\_KAFKA\_PORT** + + + Le port Kafka pour le courtier bootstrap. + + N/A + + MI +
+ + **BOOTSTRAP\_BROKER\_KAFKA\_PROTOCOL** + + + Le protocole à utiliser pour se connecter au courtier bootstrap. Les valeurs prises en charge sont `PLAINTEXT`, `SASL_PLAINTEXT`, `SSL` et `SASL_SSL`. + + **Notez que les protocoles `SASL_*` prennent uniquement en charge l’authentification Kerberos (GSSAPI).** + + PLAINTEXT + + MI +
+ + **BOOTSTRAP\_BROKER\_JMX\_PORT** + + + Le port JMX à utiliser pour la collecte sur chaque courtier du cluster. + + + **Note that all discovered brokers should have JMX active on this port** + + + N/A + + MI +
+ + **BOOTSTRAP\_BROKER\_JMX\_USER** + + + L'utilisateur JMX à utiliser pour la collecte sur chaque courtier du cluster. + + N/A + + MI +
+ + **BOOTSTRAP\_BROKER\_JMX\_PASSWORD** + + + Le mot de passe JMX à utiliser pour la collecte sur chaque courtier du cluster. + + N/A + + MI +
+ +## Options JMX SSL et délai d'expiration [#jmx-ssl-timeout] + +Ces règles s’appliquent à toutes les connexions JMX sur une instance. + +' ' ' ' ' ' ' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **KEY\_STORE** + + + Le chemin d'accès du magasin de clés contenant le certificat SSL du client JMX. + + N/A + + MI +
+ + **KEY\_STORE\_PASSWORD** + + + Le mot de passe du magasin de clés SSL JMX. + + N/A + + MI +
+ + **TRUST\_STORE** + + + Le chemin d'accès du magasin de clés de confiance contenant le certificat SSL du serveur JMX. + + N/A + + MI +
+ + **TRUST\_STORE\_PASSWORD** + + + Le mot de passe du magasin de confiance JMX. + + N/A + + MI +
+ + **DEFAULT\_JMX\_USER** + + + L'utilisateur par défaut qui se connecte à l'hôte JMX pour collecter des métriques. Si le champ nom d'utilisateur est omis pour un hôte JMX, cette valeur sera utilisée. + + administrateur + + MI +
+ + **DEFAULT\_JMX\_PASSWORD** + + + Le mot de passe par défaut pour se connecter à l'hôte JMX. Si le champ de mot de passe est omis pour un hôte JMX, cette valeur sera utilisée. + + administrateur + + MI +
+ + **TIMEOUT** + + + Le délai d'expiration d'une requête JMX individuelle en millisecondes. + + 10000 + + MI +
+ +## Dépannage [#troubleshooting] + + + + Pour les agents monitoring les producteurs et/ou les consommateurs, et qui ont `Topic mode` défini sur `All`: il peut y avoir un problème de signalement de données en double. Pour arrêter les données en double : assurez-vous que l’ [option de configuration](#config) `Collect topic size` est définie sur false. + + + ' ' + + + Assurez-vous que `zookeeper_path` est correctement défini dans le [fichier de configuration](#config). + + + + L'intégration Kafka utilise un outil d'assistance JMX appelé `nrjmx` pour récupérer les métriques JMX auprès des courtiers, des consommateurs et des producteurs. JMX doit être activé et configuré sur tous les courtiers du cluster. De plus, les pare-feu doivent être réglés pour autoriser les connexions de l’hôte exécutant l’intégration aux courtiers via le port JMX. + + Pour vérifier si JMX est correctement configuré, exécutez la commande suivante pour chaque courtier à partir de la machine exécutant l'intégration Kafka. Remplacez les variables `PORT`, `USERNAME` et `PASSWORD` par les paramètres JMX correspondants pour les courtiers : + + ```shell + echo "*:*" | nrjmx -hostname MY_HOSTNAME -port MY_PORT -v -username MY_USERNAME -password MY_PASSWORD + ``` + + La commande doit générer une sortie affichant une longue série de métriques sans aucune erreur. + + + + L'intégration peut afficher une erreur comme la suivante : + + ```shell + KRB Error: (6) KDC_ERR_C_PRINCIPAL_UNKNOWN Client not found in Kerberos database + ``` + + Vérifiez le keytab avec la commande kinit. Remplacez les champs en surbrillance par vos valeurs : + + ```shell + $ kinit -k -t KEY_TAB_PATH USERNAME + ``` + + Si la combinaison nom d'utilisateur/keytab est correcte, la commande ci-dessus devrait se terminer sans imprimer aucune erreur. + + Vérifiez le royaume à l’aide de la commande klist : + + ```shell + $ klist |grep "Default principal:" + ``` + + Vous devriez voir quelque chose comme ceci : + + ```shell + Default principal: johndoe@a_realm_name + ``` + + Vérifiez que le nom d’utilisateur et le domaine imprimés correspondent aux paramètres `sasl_gssapi_realm` et `sasl_gssapi_username` dans la configuration d’intégration. + + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/kafka/kafka-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/kafka/kafka-integration.mdx new file mode 100644 index 00000000000..952a709accb --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/kafka/kafka-integration.mdx @@ -0,0 +1,1341 @@ +--- +title: Intégration monitoring Kafka +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: 'New Relic''s Kafka integration: how to install it and configure it, and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +L'[intégration sur hôte](/docs/integrations/host-integrations/getting-started/introduction-host-integrations) de New Relic Kafka génère des rapports sur les métriques et les données de configuration de votre service Kafka. Nous instrumentons tous les éléments clés de votre cluster, y compris les courtiers (ZooKeeper et Bootstrap), les producteurs, les consommateurs et les sujets. + +Pour installer l'intégration monitoring Kafka, vous devez suivre les étapes suivantes : + +1. [Préparez l'installation](#prepare). +2. [Installer et activer l'intégration](#install). +3. [Configurer l'intégration](#config). +4. [Rechercher et utiliser des données](#find-and-use). +5. En option, consultez [les paramètres de configuration de Kafka](/docs/infrastructure/host-integrations/host-integrations-list/kafka/kafka-config). + + + Pour en savoir plus sur les bonnes pratiques lors monitoring de Kafka, consultez [cet article de blog](https://newrelic.com/blog/best-practices/new-relic-kafkapocalypse). + + +## Compatibilité et exigences [#req] + +### Versions de Kafka [#kafka-versions] + +Notre intégration est compatible avec Kafka version 3 ou inférieure. + +Veuillez noter [la politique EOL d'Apache Kafka](https://cwiki.apache.org/confluence/display/KAFKA/Time+Based+Release+Plan#TimeBasedReleasePlan-WhatIsOurEOLPolicy) car vous pouvez rencontrer des résultats inattendus si vous utilisez une version Kafka [en fin de vie](https://docs.confluent.io/platform/current/installation/versions-interoperability.html#cp-and-apache-ak-compatibility) . + +### Système d'exploitation pris en charge [#supported-os] + +* WindowsWindows +* LinuxLinux + +Pour une liste complète des versions spécifiques Windows et Linux, consultez le tableau des [systèmes d'exploitation compatibles](/docs/infrastructure/install-infrastructure-agent/get-started/requirements-infrastructure-agent/#operating-systems). + +### exigences système [#system-reqs] + +* Un compte New Relic. Vous n'en avez pas ? [Inscrivez-vous gratuitement !](https://newrelic.com/signup) Aucune carte de crédit requise. + +* Si Kafka ne s'exécute pas sur Kubernetes ou Amazon ECS, vous pouvez [installer l'agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic) sur un hôte Linux ou Windows OS ou sur un hôte capable d'accéder à distance à l'endroit où Kafka est installé. Sinon: + + * Si vous exécutez surKubernetesKubernetes, voir [ces exigences](/docs/monitor-service-running-kubernetes#requirements). + * Si vous exécutez surECSAmazon ECS, consultez [ces exigences](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). + +* Java version 8 ou supérieure. + +* JMX activé sur tous les courtiers. + +* Consommateur et producteurs basés sur Java uniquement, et avec JMX activé. + +* Le nombre total de sujets de monitoring doit être inférieur à 10 000. + +### Exigences de connectivité [#connectivity-requirements] + +L'intégration doit être configurée et autorisée à se connecter à : + +* Hôtes répertoriés dans `zookeeper_hosts` via le protocole Zookeeper, en utilisant le mécanisme d'authentification Zookeeper, si `autodiscover_strategy` est défini sur `zookeeper`. +* Hôtes définis dans `bootstrap_broker_host` sur le protocole Kafka, en utilisant les mécanismes d'authentification/transport du courtier Kafka, si `autodiscover_strategy` est défini sur `bootstrap`. +* Tous les courtiers du cluster via le protocole et le port Kafka, utilisant les mécanismes d'authentification/transport des courtiers Kafka. +* Tous les courtiers du cluster via le protocole et le port JMX, utilisant les mécanismes d'authentification/transport spécifiés dans la configuration JMX des courtiers. +* Tous les producteurs/consommateurs spécifiés dans les producteurs et consommateurs via le protocole et le port JMX, si vous souhaitez monitoring des producteurs/consommateurs. Les paramètres JMX pour le consommateur doivent être les mêmes que pour les courtiers. + + + Par défaut, les groupes de sécurité et leurs équivalents dans d'autres fournisseurs de cloud, dans AWS, n'ont pas les ports requis ouverts par défaut. JMX nécessite deux ports pour fonctionner : le port JMX et le port RMI. Ceux-ci peuvent être définis sur la même valeur lors de la configuration de la JVM pour activer JMX et doivent être ouverts pour que l'intégration puisse se connecter et collecter des métriques auprès des courtiers. + + +## Préparez l'installation [#prepare] + +Kafka est un logiciel complexe construit comme un système distribué. Pour cette raison, vous devez vous assurer que l'intégration peut contacter tous les hôtes et services requis afin que les données soient collectées correctement. + + + + Étant donné la nature distribuée de Kafka, le nombre réel et la liste des courtiers ne sont généralement pas fixés par la configuration, et sont plutôt dynamiques. Pour cette raison, l'intégration Kafka propose deux mécanismes pour effectuer la découverte automatique de la liste des courtiers du cluster : Bootstrap et Zookeeper. Le mécanisme que vous utilisez dépend de la configuration du cluster Kafka monitoré. + + ### Bootstrap + + Avec le [mécanismebootstrap ](#bootstrap), l'intégration utilise un courtier bootstrap pour effectuer la découverte automatique. Il s'agit d'un courtier dont l'adresse est bien connue et qui sera sollicité pour tout autre courtier qu'il connaît. L'intégration doit pouvoir contacter ce courtier à l'adresse fournie dans le paramètre bootstrap\_broker\_host pour que la découverte d'amorçage fonctionne. + + ### Zookeeper + + Alternativement, l'intégration Kafka peut également communiquer avec un [serveur Zookeeper](#zookeeper) afin d'obtenir la liste des courtiers. Pour ce faire, l’intégration doit être dotée des éléments suivants : + + * La liste des hôtes Zookeeper, `zookeeper_hosts`, à contacter. + + * Les secrets d'authentification appropriés pour se connecter aux hôtes. + + En plus de la liste des courtiers qu'il connaît, Zookeeper annoncera également les mécanismes de connexion pris en charge par chaque courtier. + + Vous pouvez configurer l'intégration Kafka pour essayer directement avec l'un de ces mécanismes avec le paramètre `preferred_listener` . Si ce paramètre n'est pas fourni, l'intégration tentera de contacter les courtiers avec toutes les configurations annoncées jusqu'à ce que l'un d'entre eux réussisse. + + + L'intégration utilisera Zookeeper uniquement pour découvrir les courtiers et n'en récupérera pas les métriques. + + + + + Pour répertorier correctement les sujets traités par les courtiers, l'intégration doit contacter les courtiers via le protocole Kafka. Selon la façon dont les courtiers sont configurés, cela peut nécessiter la configuration de SSL et/ou SASL pour correspondre à la configuration du courtier. Les sujets doivent avoir l'accès DESCRIBE. + + + + La requête d'intégration Kafka JMX, une extension Java standard pour l'échange de métriques dans les applications Java . JMX n'est pas activé par défaut dans les courtiers Kafka et vous devez l'activer pour que la collecte de métriques fonctionne correctement. JMX nécessite que RMI soit activé et le port RMI doit être défini sur le même port que JMX. + + Vous pouvez configurer JMX pour utiliser l’authentification par nom d’utilisateur/mot de passe, ainsi que SSL. Si une telle fonctionnalité a été activée dans les paramètres JMX du courtier, vous devez configurer l'intégration en conséquence. + + Si la découverte automatique est définie sur bootstrap, les paramètres JMX définis pour le courtier bootstrap seront appliqués à tous les autres courtiers découverts. Le port et les autres paramètres doivent donc être les mêmes sur tous les courtiers. Nous ne recommandons pas d'activer l'accès JMX/RMI anonyme et/ou non chiffré sur des segments de réseau publics ou non fiables, car cela présente un risque de sécurité important. + + + + Le décalage des groupes consommateur et consommateur des sujets ainsi que le décalage peuvent être récupérés sous forme de [KafkaOffsetSample](/docs/infrastructure/host-integrations/host-integrations-list/kafka/kafka-config/#KafkaOffsetSample-collection) avec l'indicateur `CONSUMER_OFFSET=true` mais doivent être dans une instance distincte car lorsque cet indicateur est activé, l'nstance ne collectera pas d'autres échantillons. + + + + Les producteurs et consommateurs écrits en Java peuvent également être monitorés pour obtenir des métadonnées plus spécifiques via le même mécanisme (JMX). Cela générera [KafkaConsumerSamples et KafkaProducerSamples](#KafkaConsumerSample-collection). JMX doit être activé et configuré sur les applications où il n'est pas activé par défaut. + + Les producteurs et consommateurs non Java ne prennent pas en charge JMX et ne sont donc pas pris en charge par l'intégration Kafka. + + + +## Installer et activer l'intégration [#install] + +Pour installer l'intégration Kafka, suivez les instructions correspondant à votre environnement : + +### Installation de Linux [#linux-install] + +1. Suivez les instructions pour [installer une intégration](/docs/install-integrations-package) et remplacez la variable `INTEGRATION_FILE_NAME` par `nri-kafka`. + +2. Modifiez le répertoire vers le dossier configuration de l'intégration en exécutant : + + ```shell + cd /etc/newrelic-infra/integrations.d + ``` + +3. Copiez l’exemple de fichier de configuration en exécutant : + + ```shell + sudo cp kafka-config.yml.sample kafka-config.yml + ``` + +4. Modifiez le fichier de configuration `kafka-config.yml` avec votre éditeur préféré. Découvrez quelques [exemples de fichiers de configuration.](#examples). + +### Autres environnements [#other-env] + + + Windows installation + } + > + 1. [Téléchargez le programme .exe d'installation pour l'intégration de Kafka de New Relic](https://download.newrelic.com/infrastructure_agent/windows/integrations/nri-kafka/nri-kafka-amd64-installer.exe). + + 2. Pour installer à partir de l’invite de commande Windows, exécutez : + + ```shell + PATH\TO\nri-kafka-amd64-installer.exe + ``` + + 3. Dans le répertoire d’intégration, `C:\Program Files\New Relic\newrelic-infra\integrations.d\`, créez une copie du fichier configuration d’exemple en exécutant : + + ```shell + cp kafka-config.yml.sample kafka-config.yml + ``` + + 4. Modifiez le fichier `kafka-config.yml` en utilisant l’un des [fichiers d’exemple`kafka-config.yml` ](#examples). + + + + Amazon ECS installation{' '} Installation d'Amazon ECS + + } + > + Voir [le service de monitoring exécuté sur ECS](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). + + + Kubernetes installation + } + > + Voir [le service de monitoring exécuté sur Kubernetes](/docs/monitor-service-running-kubernetes). + + + +Notes supplémentaires : + +* **Advanced:** les intégrations sont également disponibles au [formattarball ](/docs/integrations/host-integrations/installation/install-host-integrations-built-new-relic#tarball)pour permettre une installation en dehors d'un gestionnaire de paquets. +* **On-host integrations do not automatically update.** Pour de meilleurs résultats, mettez régulièrement [à jour le package d'intégration](/docs/integrations/host-integrations/installation/update-infrastructure-host-integration-package) et [l'agent d'infrastructure](/docs/infrastructure/new-relic-infrastructure/installation/update-infrastructure-agent). + + + +## Configurer l'intégration [#config] + +Il existe plusieurs façons de configurer l'intégration, selon la manière dont elle a été installée : + +* Si activé viaKubernetesKubernetes, voir [services de monitoring exécutés sur Kubernetes](/docs/monitor-service-running-kubernetes). +* Si activé viaECSAmazon ECS, voir [les services de monitoring exécutés sur ECS](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). +* Si installé sur l'hôte, modifiez la configuration dans le fichier de configuration YAML de l'intégration, `kafka-config.yml`. La configuration au format YAML d'une intégration est l'endroit où vous pouvez placer les informations de connexion requises et configurer la manière dont les données sont collectées. Les options que vous modifiez dépendent de votre configuration et de vos préférences. Le fichier configuration contient des paramètres communs applicables à toutes les intégrations telles que `interval`, `timeout`, `inventory_source`. Pour tout savoir sur ces paramètres courants, reportez-vous à notre document [Format de configuration](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-newer-configuration-format/#configuration-basics) . + + + Si vous utilisez toujours nos anciens fichiers configuration et de définition, reportez-vous à ce [document](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format/) pour obtenir de l'aide. + + +Comme pour toute autre intégration, un fichier configuration `kafka-config.yml` peut contenir de nombreuses instances de l'intégration collectant différentes mesures de courtiers, de consommateurs et de producteurs. Vous pouvez voir des exemples de configuration avec une ou plusieurs instances dans les [fichiers d'exemple`kafka-config.yml`](#examples) + +Les paramètres spécifiques liés à Kafka sont définis à l'aide de la section `env` de chaque instance dans le fichier de configuration `kafka-config.yml` . Ces paramètres contrôlent la connexion à vos Brokers, Zookeeper et JMX ainsi que d'autres paramètres et fonctionnalités de sécurité. La liste des paramètres valides est décrite dans [les paramètres de configuration de Kafka](/docs/infrastructure/host-integrations/host-integrations-list/kafka/kafka-config). + +L'intégration dispose de deux modes de fonctionnement sur chaque instance, qui s'excluent mutuellement, que vous pouvez configurer avec le paramètre `CONSUMER_OFFSET` : + +* Collecte de décalages de consommateur : définissez `CONSUMER_OFFSET = true` pour collecter [KafkaOffsetSample](/docs/infrastructure/host-integrations/host-integrations-list/kafka/kafka-config/#KafkaOffsetSample-collection). +* Mode de collecte de base : définissez `CONSUMER_OFFSET = false` pour collecter le reste des échantillons : [KafkaBrokerSample, KafkaTopicSample](/docs/infrastructure/host-integrations/host-integrations-list/kafka/kafka-config/#broker-collection), [KafkaProducerSample, KafkaConsumerSample](/docs/infrastructure/host-integrations/host-integrations-list/kafka/kafka-config/#KafkaConsumerSample-collection). + + + Ces modes s'excluent mutuellement car la collecte des décalages du consommateur prend beaucoup de temps à exécuter et a des exigences de performances élevées. Afin de collecter les deux groupes d'échantillons, définissez deux instances, une avec chaque mode. + + +Les valeurs de ces paramètres peuvent être définies de plusieurs manières : + +* Ajout de la valeur directement dans le fichier de configuration. C'est la manière la plus courante. + +* Remplacement des valeurs des variables d’environnement à l’aide de la notation `{{ }}` . En savoir plus sur [l'utilisation des passthroughs de variables d'environnement avec l'intégration sur hôte](/docs/infrastructure/install-infrastructure-agent/configuration/configure-infrastructure-agent/#passthrough) ou voir l'exemple de [remplacement des variables d'environnement](/docs/infrastructure/host-integrations/host-integrations-list/elasticsearch/elasticsearch-integration#envvar-replacement). + +* Utilisation de la gestion des secrets. Utilisez ceci pour protéger les informations sensibles, telles que les mots de passe qui seraient exposés en texte brut dans le fichier de configuration. Pour plus d'informations, voir [gestion des secrets](/docs/integrations/host-integrations/installation/secrets-management). + +### monitoringdécalages + +Lors du réglage de `CONSUMER_OFFSET = true`, par défaut, seules les métriques des groupes de consommateurs avec consommateur actif (et les métriques de consommateur) seront collectées. Pour collecter également les métriques des groupes de consommateurs avec des consommateurs inactifs, vous devez définir `INACTIVE_CONSUMER_GROUP_OFFSET` sur `true`. + +Lorsqu'un groupe de consommateurs monitoring plus d'un sujet, il est utile d'avoir des mesures de groupe de consommateurs séparées par sujet, en particulier si l'un des sujets a des consommateurs inactifs, car il est alors possible de repérer dans quel sujet le groupe de consommateurs est en retard et s'il y a des consommateurs actifs pour ce groupe de consommateurs et ce sujet. + +Pour obtenir les mesures du groupe de consommateurs séparées par sujet, vous devez définir `CONSUMER_GROUP_OFFSET_BY_TOPIC` sur `true` (la valeur par défaut est `false`). + +Pour plus d'informations sur la configuration monitoring des décalages, consultez [Configurer la collection KafkaOffsetSample](/docs/infrastructure/host-integrations/host-integrations-list/kafka/kafka-config/#KafkaOffsetSample-collection). + +## Fichiers d'exemple kafka-config.yml [#examples] + + + + Cette configuration collecte les métriques et l'inventaire, y compris tous les sujets découvrant les courtiers de deux hôtes JMX différents : + + ```yml + integrations: + - name: nri-kafka + env: + CLUSTER_NAME: testcluster1 + KAFKA_VERSION: "1.0.0" + AUTODISCOVER_STRATEGY: zookeeper + ZOOKEEPER_HOSTS: '[{"host": "localhost", "port": 2181}, {"host": "localhost2", "port": 2181}]' + ZOOKEEPER_PATH: "/kafka-root" + DEFAULT_JMX_USER: username + DEFAULT_JMX_PASSWORD: password + TOPIC_MODE: all + interval: 15s + labels: + env: production + role: kafka + inventory_source: config/kafka + ``` + + + + Cette configuration collecte les Métriques et l'Inventaire en découvrant les brokers à partir d'un hôte JMX avec SSL : + + ```yml + integrations: + - name: nri-kafka + env: + CLUSTER_NAME: testcluster1 + KAFKA_VERSION: "1.0.0" + AUTODISCOVER_STRATEGY: zookeeper + ZOOKEEPER_HOSTS: '[{"host": "localhost", "port": 2181}]' + ZOOKEEPER_PATH: "/kafka-root" + DEFAULT_JMX_USER: username + DEFAULT_JMX_PASSWORD: password + + KEY_STORE: "/path/to/your/keystore" + KEY_STORE_PASSWORD: keystore_password + TRUST_STORE: "/path/to/your/truststore" + TRUST_STORE_PASSWORD: truststore_password + + TIMEOUT: 10000 #The timeout for individual JMX queries in milliseconds. + interval: 15s + labels: + env: production + role: kafka + inventory_source: config/kafka + ``` + + + + Cette configuration collecte les métriques et l'inventaire, y compris tous les sujets découvrant les courtiers à partir d'un courtier bootstrap : + + ```yml + integrations: + - name: nri-kafka + env: + CLUSTER_NAME: testcluster1 + AUTODISCOVER_STRATEGY: bootstrap + BOOTSTRAP_BROKER_HOST: localhost + BOOTSTRAP_BROKER_KAFKA_PORT: 9092 + BOOTSTRAP_BROKER_KAFKA_PROTOCOL: PLAINTEXT + BOOTSTRAP_BROKER_JMX_PORT: 9999 # This same port will be used to connect to all discover broker JMX + BOOTSTRAP_BROKER_JMX_USER: admin + BOOTSTRAP_BROKER_JMX_PASSWORD: password + + LOCAL_ONLY_COLLECTION: false + + COLLECT_BROKER_TOPIC_DATA: true + TOPIC_MODE: "all" + COLLECT_TOPIC_SIZE: false + interval: 15s + labels: + env: production + role: kafka + inventory_source: config/kafka + ``` + + + + Cette configuration collecte uniquement les métriques découvrant les brokers à partir d'un broker bootstrap écoutant avec le protocole TLS : + + ```yml + integrations: + - name: nri-kafka + env: + METRICS: true + CLUSTER_NAME: testcluster1 + AUTODISCOVER_STRATEGY: bootstrap + BOOTSTRAP_BROKER_HOST: localhost + BOOTSTRAP_BROKER_KAFKA_PORT: 9092 + BOOTSTRAP_BROKER_KAFKA_PROTOCOL: SSL + BOOTSTRAP_BROKER_JMX_PORT: 9999 + BOOTSTRAP_BROKER_JMX_USER: admin + BOOTSTRAP_BROKER_JMX_PASSWORD: password + + # Kerberos authentication arguments + TLS_CA_FILE: "/path/to/CA.pem" + TLS_CERT_FILE: "/path/to/cert.pem" + TLS_KEY_FILE: "/path/to/key.pem" + TLS_INSECURE_SKIP_VERIFY: false + interval: 15s + labels: + env: production + role: kafka + inventory_source: config/kafka + ``` + + + + Cette configuration collecte uniquement les métriques découvrant les courtiers d'un courtier bootstrap dans un Cluster authentification Kerberos : + + ```yml + integrations: + - name: nri-kafka + env: + METRICS: true + CLUSTER_NAME: testcluster1 + AUTODISCOVER_STRATEGY: bootstrap + BOOTSTRAP_BROKER_HOST: localhost + BOOTSTRAP_BROKER_KAFKA_PORT: 9092 + BOOTSTRAP_BROKER_KAFKA_PROTOCOL: PLAINTEXT # Currently support PLAINTEXT and SSL + BOOTSTRAP_BROKER_JMX_PORT: 9999 + BOOTSTRAP_BROKER_JMX_USER: admin + BOOTSTRAP_BROKER_JMX_PASSWORD: password + + # Kerberos authentication arguments + SASL_MECHANISM: GSSAPI + SASL_GSSAPI_REALM: SOMECORP.COM + SASL_GSSAPI_SERVICE_NAME: Kafka + SASL_GSSAPI_USERNAME: kafka + SASL_GSSAPI_KEY_TAB_PATH: /etc/newrelic-infra/kafka.keytab + SASL_GSSAPI_KERBEROS_CONFIG_PATH: /etc/krb5.conf + SASL_GSSAPI_DISABLE_FAST_NEGOTIATION: false + interval: 15s + labels: + env: production + role: kafka + inventory_source: config/kafka + ``` + + + + Cette configuration collecte les métriques en divisant la collection de sujets entre 3 instances différentes : + + ```yml + integrations: + - name: nri-kafka + env: + METRICS: true + CLUSTER_NAME: testcluster1 + KAFKA_VERSION: "1.0.0" + AUTODISCOVER_STRATEGY: zookeeper + ZOOKEEPER_HOSTS: '[{"host": "host1", "port": 2181}]' + ZOOKEEPER_AUTH_SECRET: "username:password" + ZOOKEEPER_PATH: "/kafka-root" + DEFAULT_JMX_USER: username + DEFAULT_JMX_PASSWORD: password + TOPIC_MODE: regex + TOPIC_REGEX: 'topic\d+' + TOPIC_BUCKET: '1/3' + interval: 15s + labels: + env: production + role: kafka + inventory_source: config/kafka + - name: nri-kafka + env: + METRICS: true + CLUSTER_NAME: testcluster2 + KAFKA_VERSION: "1.0.0" + AUTODISCOVER_STRATEGY: zookeeper + ZOOKEEPER_HOSTS: '[{"host": "host2", "port": 2181}]' + ZOOKEEPER_AUTH_SECRET: "username:password" + ZOOKEEPER_PATH: "/kafka-root" + DEFAULT_JMX_USER: username + DEFAULT_JMX_PASSWORD: password + TOPIC_MODE: regex + TOPIC_REGEX: 'topic\d+' + TOPIC_BUCKET: '2/3' + interval: 15s + labels: + env: production + role: kafka + inventory_source: config/kafka + - name: nri-kafka + env: + METRICS: true + CLUSTER_NAME: testcluster3 + KAFKA_VERSION: "1.0.0" + AUTODISCOVER_STRATEGY: zookeeper + ZOOKEEPER_HOSTS: '[{"host": "host3", "port": 2181}]' + ZOOKEEPER_AUTH_SECRET: "username:password" + ZOOKEEPER_PATH: "/kafka-root" + DEFAULT_JMX_USER: username + DEFAULT_JMX_PASSWORD: password + TOPIC_MODE: regex + TOPIC_REGEX: 'topic\d+' + TOPIC_BUCKET: '3/3' + interval: 15s + labels: + env: production + role: kafka + inventory_source: config/kafka + ``` + + + + Ceci donne un exemple de collecte de métriques JMX auprès des consommateurs et producteurs Java : + + ```yml + integrations: + - name: nri-kafka + env: + METRICS: "true" + CLUSTER_NAME: "testcluster3" + PRODUCERS: '[{"host": "localhost", "port": 24, "username": "me", "password": "secret"}]' + CONSUMERS: '[{"host": "localhost", "port": 24, "username": "me", "password": "secret"}]' + DEFAULT_JMX_HOST: "localhost" + DEFAULT_JMX_PORT: "9999" + interval: 15s + labels: + env: production + role: kafka + inventory_source: config/kafka + ``` + + + + Cette configuration collecte les compensations consommateur Métriques et Inventaire pour le cluster: + + ```yml + integrations: + - name: nri-kafka + env: + CONSUMER_OFFSET: true + CLUSTER_NAME: testcluster3 + AUTODISCOVER_STRATEGY: bootstrap + BOOTSTRAP_BROKER_HOST: localhost + BOOTSTRAP_BROKER_KAFKA_PORT: 9092 + BOOTSTRAP_BROKER_KAFKA_PROTOCOL: PLAINTEXT + # A regex pattern that matches the consumer groups to collect metrics from + CONSUMER_GROUP_REGEX: '.*' + interval: 15s + labels: + env: production + role: kafka + inventory_source: config/kafka + ``` + + + +## Options de configuration pour l'intégration [#config-options] + +Pour en savoir plus sur la recherche et l'utilisation de vos données, consultez [les paramètres de configuration de Kafka](/docs/infrastructure/host-integrations/host-integrations-list/kafka/kafka-config). + +## Rechercher et utiliser des données [#find-and-use] + +Les données de ce service sont signalées à un [dashboard d'intégration](/docs/integrations/new-relic-integrations/getting-started/infrastructure-integration-dashboards-charts). + +Les données Kafka sont attachées aux [types d'événements](/docs/using-new-relic/data/understand-data/new-relic-data-types#events-new-relic) suivants : + +* [`KafkaBrokerSample`](#broker-sample) +* [`KafkaTopicSample`](#topic-sample) +* [`KafkaProducerSample`](#producer-sample) +* [`KafkaConsumerSample`](#consumer-sample) +* [`KafkaOffsetSample`](#offset-sample) + +Vous pouvez [interroger ces données](/docs/using-new-relic/data/understand-data/query-new-relic-data) à des fins de dépannage ou pour créer des graphiques et des dashboards. + +Pour en savoir plus sur la recherche et l'utilisation de vos données, consultez comment [comprendre les données d'intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## Métriques collectées par l'intégration [#metrics] + +L'intégration Kafka collecte les métriques suivantes. Chaque nom de métrique est préfixé par un indicateur de catégorie et un point, tel que `broker.` ou `consumer.`. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `broker.bytesWrittenToTopicPerSecond` + + Nombre d'octets écrits sur une rubrique par le courtier par seconde. +
+ `broker.IOInPerSecond` + + E/S réseau dans les courtiers du cluster en octets par seconde. +
+ `broker.IOOutPerSecond` + + E/S réseau sortant des courtiers du cluster en octets par seconde. +
+ `broker.logFlushPerSecond` + + taux de chasse d'eau logarithmique. +
+ `broker.messagesInPerSecond` + + Messages entrants par seconde. +
+ `follower.requestExpirationPerSecond` + + Taux d'expiration des demandes sur les abonnés en expulsions par seconde. +
+ `net.bytesRejectedPerSecond` + + Octets rejetés par seconde. +
+ `replication.isrExpandsPerSecond` + + Taux de répliques rejoignant le pool ISR. +
+ `replication.isrShrinksPerSecond` + + Taux de répliques quittant le pool ISR. +
+ `replication.leaderElectionPerSecond` + + Taux d'élection des dirigeants. +
+ `replication.uncleanLeaderElectionPerSecond` + + Taux d’élection de dirigeants impurs. +
+ `replication.unreplicatedPartitions` + + Nombre de partitions non répliquées. +
+ `request.avgTimeFetch` + + Temps moyen par demande de récupération en millisecondes. +
+ `request.avgTimeMetadata` + + Temps moyen de demande de métadonnées en millisecondes. +
+ `request.avgTimeMetadata99Percentile` + + Temps de requests métadonnées pour le 99ème percentile en millisecondes. +
+ `request.avgTimeOffset` + + Temps moyen pour une demande de décalage en millisecondes. +
+ `request.avgTimeOffset99Percentile` + + Délai de requests de décalage pour le 99e percentile en millisecondes. +
+ `request.avgTimeProduceRequest` + + Temps moyen pour une demande de production en millisecondes. +
+ `request.avgTimeUpdateMetadata` + + Temps moyen d'une demande de mise à jour des métadonnées en millisecondes. +
+ `request.avgTimeUpdateMetadata99Percentile` + + Temps de mise à jour requests mémorisables pour le 99e percentile en millisecondes. +
+ `request.clientFetchesFailedPerSecond` + + Échecs de demande de récupération du client par seconde. +
+ `request.fetchTime99Percentile` + + Temps de récupération requests pour le 99e percentile en millisecondes. +
+ `request.handlerIdle` + + Fraction moyenne de temps pendant lequel les threads du gestionnaire de requêtes sont inactifs. +
+ `request.produceRequestsFailedPerSecond` + + Échec de la production requests par seconde. +
+ `request.produceTime99Percentile` + + Il est temps de produire requests pour le 99e percentile. +
+ `topic.diskSize` + + Taille du disque de sujet par courtier et par sujet. Présent uniquement si `COLLECT_TOPIC_SIZE` est activé. +
+ `topic.offset` + + Décalage thématique par courtier et par thème. Présent uniquement si `COLLECT_TOPIC_OFFSET` est activé. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `consumer.avgFetchSizeInBytes` + + Nombre moyen d'octets récupérés par requête pour un sujet spécifique. +
+ `consumer.avgRecordConsumedPerTopic` + + Nombre moyen d'enregistrements dans chaque demande pour un sujet spécifique. +
+ `consumer.avgRecordConsumedPerTopicPerSecond` + + Nombre moyen d'enregistrements consommés par seconde pour un sujet spécifique en enregistrements par seconde. +
+ `consumer.bytesInPerSecond` + + consommateur octets par seconde. +
+ `consumer.fetchPerSecond` + + Le débit minimum auquel le consommateur envoie requests de récupération à un client en requests par seconde. +
+ `consumer.maxFetchSizeInBytes` + + Nombre maximal d'octets récupérés par requête pour une rubrique spécifique. +
+ `consumer.maxLag` + + Retard maximal du consommateur. +
+ `consumer.messageConsumptionPerSecond` + + Taux de consommation des messages du consommateur en messages par seconde. +
+ `consumer.offsetKafkaCommitsPerSecond` + + Taux de validations décalées vers Kafka en validations par seconde. +
+ `consumer.offsetZooKeeperCommitsPerSecond` + + Taux de validations de décalage sur ZooKeeper en écritures par seconde. +
+ `consumer.requestsExpiredPerSecond` + + Taux d'expiration tardive des demandes de consommateurs dans les expulsions par seconde. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `producer.ageMetadataUsedInMilliseconds` + + Âge en secondes des métadonnées du producteur actuel utilisées. +
+ `producer.availableBufferInBytes` + + Quantité totale de mémoire tampon qui n'est pas utilisée en octets. +
+ `producer.avgBytesSentPerRequestInBytes` + + Nombre moyen d'octets envoyés par partition et par requête. +
+ `producer.avgCompressionRateRecordBatches` + + Taux de compression moyen des lots d'enregistrements. +
+ `producer.avgRecordAccumulatorsInMilliseconds` + + Temps moyen en ms par lot d'enregistrement passé dans l'accumulateur d'enregistrements. +
+ `producer.avgRecordSizeInBytes` + + Taille moyenne d'un enregistrement en octets. +
+ `producer.avgRecordsSentPerSecond` + + Nombre moyen d'enregistrements envoyés par seconde. +
+ `producer.avgRecordsSentPerTopicPerSecond` + + Nombre moyen d'enregistrements envoyés par seconde pour un sujet. +
+ `producer.AvgRequestLatencyPerSecond` + + Latence moyenne des requêtes du producteur. +
+ `producer.avgThrottleTime` + + Temps moyen pendant lequel une demande a été limitée par un courtier en millisecondes. +
+ `producer.bufferMemoryAvailableInBytes` + + Quantité maximale de mémoire tampon que le client peut utiliser en octets. +
+ `producer.bufferpoolWaitTime` + + Faction de temps pendant laquelle un appender attend l'allocation d'espace. +
+ `producer.bytesOutPerSecond` + + Octets de sortie du producteur par seconde. +
+ `producer.compressionRateRecordBatches` + + Taux de compression moyen des lots d'enregistrements pour une rubrique. +
+ `producer.iOWaitTime` + + Temps d'attente I/O du producteur en millisecondes. +
+ `producer.maxBytesSentPerRequestInBytes` + + Nombre maximal d'octets envoyés par partition et par requête. +
+ `producer.maxRecordSizeInBytes` + + Taille maximale de l'enregistrement en octets. +
+ `producer.maxRequestLatencyInMilliseconds` + + Latence maximale de la requête en millisecondes. +
+ `producer.maxThrottleTime` + + Durée maximale pendant laquelle une demande a été limitée par un courtier en millisecondes. +
+ `producer.messageRatePerSecond` + + Messages du producteur par seconde. +
+ `producer.responsePerSecond` + + Nombre de réponses du producteur par seconde. +
+ `producer.requestPerSecond` + + Nombre de requests de producteurs par seconde. +
+ `producer.requestsWaitingResponse` + + Nombre actuel de requests en cours en attente d'une réponse. +
+ `producer.threadsWaiting` + + Nombre de threads utilisateur bloqués en attente de mise en file d'attente de leurs enregistrements par la mémoire tampon. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `topic.partitionsWithNonPreferredLeader` + + Nombre de partitions par sujet qui ne sont pas dirigées par leur réplique préférée. +
+ `topic.respondMetaData` + + Nombre de sujets répondant aux requests métadonnées. +
+ `topic.retentionSizeOrTime` + + Si une partition est conservée par taille ou à la fois par taille et par temps. Une valeur de 0 = temps et une valeur de 1 = taille et temps. +
+ `topic.underReplicatedPartitions` + + Nombre de partitions par rubrique qui sont sous-répliquées. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `consumer.offset` + + Le dernier offset consommé sur une partition par le groupe consommateur. +
+ `consumer.lag` + + La différence entre la marque haute d'un courtier et la compensation du consommateur (`consumer.hwm` - `consumer.offset`). +
+ `consumer.hwm` + + Le décalage du dernier message écrit sur une partition (limite haute). +
+ `consumer.totalLag` + + La somme des décalages entre les partitions consommées par un consommateur. +
+ `consumerGroup.totalLag` + + La somme des décalages sur toutes les partitions consommées par un `consumerGroup`. +
+ `consumerGroup.maxLag` + + Le décalage maximal sur toutes les partitions consommées par un `consumerGroup`. +
+ `consumerGroup.activeConsumers` + + Le nombre de consommateurs actifs dans ce `consumerGroup`. +
+
+
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/lampy-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/lampy-integration.mdx new file mode 100644 index 00000000000..86c5770bc8a --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/lampy-integration.mdx @@ -0,0 +1,112 @@ +--- +title: Intégration LAMPy stack monitoring +tags: + - New Relic integrations + - LAMPy + - Linux + - Apache + - Python + - MySQL +metaDescription: 'Use New Relic Linux, Apache, Python and MySQL monitoring to get a dashboard with metrics from your LAMPy application.' +freshnessValidatedDate: never +translationType: machine +--- + +Notre intégration LAMPy utilise l'agent infrastructure , l'intégration MySQL , l'intégration Apache et l'agent Python pour vous fournir un dashboard prédéfini avec vos mesures les plus importantes telles que les temps de réponse, l'utilisation du processeur, le trafic et les fréquences de connexion. + +A screenshot depicting the LAMPy prebuilt dashboard + +
+ Après avoir configuré notre intégration LAMPy, nous vous fournissons un dashboard pour les métriques de votre application Web LAMPy. +
+ +## Étape 1 : installer l’agent d’infrastructure [#infra-install] + +Pour ce faire, suivez [les étapes d’installation de l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux) pour l’hôte contenant votre application LAMPy. + +## Étape 2 : Installer l’intégration MySQL [#mysql-install] + +Notre intégration LAMPy s'appuie sur l'intégration MySQL pour fonctionner. Pour en savoir plus et vérifier les exigences, consultez notre [documentation MySQL](/install/mysql/). + +1. Depuis [one.newrelic.com](https://one.newrelic.com) , cliquez sur **Integrations & Agents > Infrastructure & OS > MySQL**. +2. Suivez les instructions pour installer l'agent MySQL. + +## Étape 3 : Installer l’intégration Apache [#apache-install] + +Notre intégration LAMPy s'appuie sur l'intégration Apache pour fonctionner. Pour en savoir plus et vérifier les exigences, consultez notre [documentation Apache](/docs/infrastructure/host-integrations/host-integrations-list/apache-monitoring-integration/). + +1. Depuis [one.newrelic.com](https://one.newrelic.com) , cliquez sur **Integrations & Agents > Infrastructure & OS > Apache**. +2. Suivez les instructions à l’écran pour installer l’agent Apache. + +## Étape 4 : installer l’agent Python [#python-install] + +Notre intégration LAMPy s'appuie sur l'agent Python pour fonctionner. Pour en savoir plus et vérifier les exigences, consultez notre [documentation Python](/docs/apm/agents/python-agent/getting-started/introduction-new-relic-python/). + +1. Depuis [one.newrelic.com](https://one.newrelic.com) , cliquez sur **Integrations & Agents > Application monitoring > Python**. + +2. Nommez votre application. + +3. Téléchargez le fichier de configuration et placez-le dans le répertoire racine de votre application. + +4. Intégrez votre agent Python connecté au site Web Django. Cet agent Python s'exécute également sur le serveur Apache. + +5. Ajoutez cette ligne à votre fichier `settings.py` : + + ```py + NEW_RELIC_CONFIG_FILE = BASE_DIR / 'newrelic.ini' + ``` + +6. Ajoutez ces lignes à votre fichier `wsgi.py` : + + ```py + import newrelic.agent + + from django.conf import settings + from django.core.wsgi import get_wsgi_application + + application = get_wsgi_application() + + newrelic.agent.initialize(settings.NEW_RELIC_CONFIG_FILE) + newrelic.agent.WSGIApplicationWrapper(application) + + ``` + +## Étape 5 : redémarrez votre serveur Apache + +Attendez quelques minutes, puis procédez à la recherche de vos données dans New Relic. + +## Trouvez vos données [#find-data] + +Pour obtenir votre dashboard LAMPy : + +1. De [one.newrelic.com](https://one.newrelic.com), aller à la [page**Integrations & Agents** ](https://one.newrelic.com/marketplace). +2. Cliquez sur **Dashboards**. +3. Dans la barre de recherche, tapez `LAMPy`. +4. Le dashboard LAMPy devrait apparaître. Cliquez dessus pour l'installer. + +Votre dashboard LAMPy est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l'utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + +Pour plus d'informations sur les données signalées, consultez la documentation de chacun des outils que vous avez installés : + +* [Données Linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux/) +* [Données MySQL](/install/mysql/#metrics) +* [Données Apache](/docs/infrastructure/host-integrations/host-integrations-list/apache-monitoring-integration/) +* [Données Python](/docs/apm/agents/python-agent/getting-started/introduction-new-relic-python/) + +Si vous avez installé l'agent d'infrastructure, vous recevrez également [des données d'infrastructure](/docs/infrastructure/manage-your-data/data-instrumentation/default-infrastructure-monitoring-data/#infrastructure-events). + +Voici un exemple de requête NRQL pour vérifier les octets envoyés par requête : + +```sql +SELECT (average(`apache.server.net.bytesPerSecond`) / average(`apache.server.net.requestsPerSecond`)) as 'Bytes sent per request' +FROM Metric +TIMESERIES auto +``` + +## Quelle est la prochaine étape ? [#whats-next] + +Pour en savoir plus sur l'interrogation de vos données et la création de dashboards personnalisés, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) +* [Introduction au dashboard personnalisé](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/lighttpd-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/lighttpd-integration.mdx new file mode 100644 index 00000000000..b5feec6f2b7 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/lighttpd-integration.mdx @@ -0,0 +1,194 @@ +--- +title: Intégration de Lighttpd +tags: + - Lighttpd integration + - New Relic integrations +metaDescription: Install our Lighttpd dashboards and see your Lighttpd data in New Relic. +freshnessValidatedDate: never +translationType: machine +--- + +Avec notre dashboard Lighttpd, votre équipe peut monitorer les mesures de résultats et les données d'inventaire. Monitoring Lighttpd fournit des informations importantes pour vous aider à construire une image complète des performances de votre serveur Web. Ces données de performances incluent les temps de disponibilité, le réseau en octets et en paquets, le nombre de connexions, etc. Les données métriques peuvent être consultées sur notre dashboard prédéfini, et vous pouvez également créer vos propres recherches personnalisées, graphiques et règles d'alerte. Notre intégration Lighttpd utilise une configuration NRI-Flex. + +Lighttpd dashboard + +
+ Après avoir configuré l'intégration avec New Relic, visualisez vos données dans un dashboard comme celui-ci, dès la sortie de la boîte. +
+ +## Installer l' agent d'infrastructure [#install] + +Pour intégrer des données dans New Relic, installez notre agent d'infrastructure. Notre agent d'infrastructure collecte et ingère des données afin que vous puissiez suivre les performances de votre application. La version doit être 1.10.7 ou ultérieure pour prendre en charge l'intégration NRI-Flex. + +Vous pouvez installer l' agent d'infrastructure de deux manières différentes : + +* Notre [guide d'installation](https://one.newrelic.com/nr1-core?state=4f81feab-35f7-e97e-9903-52510f8542bd) est un outil CLI qui inspecte votre système et installe agent l' d'infrastructure aux côtés de l'monitoring d'applicationqui agent fonctionne le mieux pour votre système. Pour en savoir plus sur le fonctionnement de notre guide d'installation, consultez notre [aperçu du guide d'installation](/docs/infrastructure/host-integrations/installation/new-relic-guided-install-overview). +* Si vous préférez installer notre agent d'infrastructure manuellement, vous pouvez suivre un tutoriel d' installation manuelle pour [Linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux), [Windows](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows/) ou [macOS](/docs/infrastructure/install-infrastructure-agent/macos-installation/install-infrastructure-monitoring-agent-macos/). + +## Intégrer Lighttpd avec New Relic [#integrate] + +Une fois installé, l'agent d'infrastructure peut ingérer les données de votre application et les envoyer à New Relic, mais vous devez toujours intégrer (ou établir une ligne de communication) entre l'agent et votre application. Une fois intégré, vous pouvez démarrer avec une solution monitoring prête à l'emploi pour votre application Lighttpd. + + + + ### Configurer manuellement le fichier `lighttpd.conf` + + Pour exporter des métriques sur l'URL `http://INSERT_DOMAIN:INSERT_PORT/server-status?json`, procédez comme suit : + + 1. Accédez au chemin du fichier de configuration lighttpd. + + ```shell + cd /etc/lighttpd/ + ``` + + 2. Ouvrez le fichier `lighttpd.conf` à modifier. + + ```shell + sudo nano lighttpd.conf + ``` + + 3. Ajoutez `mod_status` à l'intérieur de l'objet `server.modules` . + + 4. Ajoutez `status.status-url = /server-status` après `server.modules`. + + 5. Mettre à jour `server.document-root` avec le chemin du fichier lighttpd `/var/www/html/lighttpd-webpage` + + 6. Mettez à jour `server.port` sur lequel vous exécutez lighttpd. + + ``` + server.port = 9880. + ``` + + 7. Ouvrez `http://INSERT_DOMAIN:INSERT_PORT/server-status?json` sur le navigateur pour vérifier les métriques liées au serveur. + + Voici un exemple de fichier de configuration : + + ``` + server.modules = ( + "mod_indexfile", + "mod_access”, + "mod_alias", + "mod_redirect”, + "mod_status" + ) + + server.document-root = "/var/www/html/lighttpd-webpage" + server.upload-dirs = ( "/var/cache/lighttpd/uploads" ) + server.errorlog = "/var/log/lighttpd/error.log" + server.pid-file = "/run/lighttpd.pid" + server.username = "www-data" + server.groupname = "www-data" + server.port = 9880 + status.status-url = "/server-status” + ``` + + + + ## Configuration NRI-Flex [#nri-flex-config] + + Une fois que vous avez installé l'agent d'infrastructure sur votre hôte, le binaire `nri-flex` est également installé avec lui. + + Si l'agent d'infrastructure n'a pas été installé, suivez les [étapes d'installation](https://github.com/newrelic/nri-flex/blob/master/docs/basic-tutorial.md) de `nri-flex` à partir [du référentiel nri-flex](https://github.com/newrelic/nri-flex). + + Pour créer un fichier de configuration flexible, suivez ces étapes : + + 1. Créez un fichier nommé `lighttpd-http-config.yml` dans ce chemin : + + ```shell + /etc/newrelic-infra/integrations.d + ``` + + 2. Mettez à jour le fichier `lighttpd-http-config.yml` avec cette configuration : + + * `EVENT_TYPE`:Vous pouvez considérer `EVENT_TYPE` comme une table de base de données New Relic que vous pouvez interroger à l'aide de NRQL (par exemple, `LighttpdStatusSample`). + * `URL`:Ceci contient les métriques au format json (par exemple, `http://127.0.0.1:9880/server-status?json`). + + Voici un exemple de fichier de configuration : + + ```yml + --- + integrations: + - name: nri-flex + # interval: 30s + config: + name: lighttpdFlex + apis: + - event_type: INSERT_EVENT_TYPE + url: INSERT_URL + ``` + + + + ### Transférer le log Lighttpd vers New Relic + + Vous pouvez utiliser notre [transfert de log](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/) pour transférer le log Lighttpd vers New Relic. + + Sur les machines Linux, votre fichier de log nommé `logging.yml` doit être présent dans le chemin ci-dessous. Si vous ne voyez pas votre fichier de log, vous devrez alors le créer en suivant la documentation sur le transfert de logci-dessus. + + ```shell + /etc/newrelic-infra/logging.d/ + ``` + + Une fois le fichier de log créé, ajoutez le script suivant au fichier `logging.yml` : + + ```yml + - name: error.log + file: /var/log/lighttpd/error.log + attributes: + logtype: lighttpd_log + ``` + + + + ### Redémarrez l'agent New Relic Infrastructure et le service lighttpd + + Avant de pouvoir commencer à lire vos données, utilisez les instructions de notre [documentation suragent d'infrastructure ](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/)pour redémarrer votre agent d'infrastructure. + + ```shell + sudo systemctl restart lighttpd.service && sudo systemctl restart newrelic-infra.service + ``` + + + + ### Monitorer votre application [#monitor-app] + + Vous pouvez choisir notre modèle dashboard prédéfini nommé `Lighttpd` pour monitorer les métriques de votre serveur Lighttpd. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. Allez à **[one.newrelic.com](https://one.newrelic.com/)** et cliquez sur **+ Integrations & Agents**. + 2. Cliquez sur l'onglet **Dashboards** . + 3. Dans le champ de recherche, tapez `lighttpd`. + 4. Lorsque vous voyez notre dashboard pré-construit, cliquez dessus pour l'installer sur votre compte. + + Une fois votre application intégrée en suivant les étapes ci-dessus, le dashboard devrait afficher des métriques. + + Pour intrumenter le quickstart de Lighttpd et voir les métriques et les alertes, vous pouvez également suivre notre [page quickstart de Lighttpd](https://newrelic.com/instant-observability/lighttpd) qui comporte un bouton **Install now**. + + Voici quelques exemples de requêtes : + + **Example:** Affichez les métriques capturées sur le générateur de requêtes New Relic. + + ```sql + SELECT * FROM LighttpdStatusSample LIMIT MAX + ``` + + **Example:** Vérifiez la connexion active par serveur. + + ```sql + SELECT latest(BusyServers) FROM LighttpdStatusSample TIMESERIES AUTO + ``` + + + +## Voir les métriques Lighttpd dans un dashboard [#dashboard] + +Avec seulement l'agent infrastructure installé et instrumenté avec votre application, vous pouvez visualiser vos données brutes dans nos Métriques & événement. Notre par défaut transforme ces données brutes en graphiques et diagrammes, qui offrent une vue d'ensemble de la santé de votre système. + +Pour intrumenter le quickstart de Lighttpd, installer notre dashboard par défaut et voir les métriques et les alertes, vous pouvez également suivre notre [page quickstart de Lighttpd](https://newrelic.com/instant-observability/lighttpd) en cliquant sur le bouton **Install now**. + +## Quelle est la prochaine étape ? [#whats-next] + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/linkerd-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/linkerd-integration.mdx new file mode 100644 index 00000000000..b85805ee2b4 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/linkerd-integration.mdx @@ -0,0 +1,147 @@ +--- +title: Intégration de Linkerd +tags: + - New Relic integrations + - Linkerd integration +metaDescription: Use New Relic infrastructure agent to get a dashboard with metrics from your Linkerd. +freshnessValidatedDate: '2024-05-29T00:00:00.000Z' +translationType: machine +--- + +Notre intégration Linkerd est un service mesh pour Kubernetes. Il rend l’exécution des services plus facile et plus sûre en vous offrant un débogage d’exécution, une observabilité, une fiabilité et une sécurité, le tout sans nécessiter aucune modification de votre code. + +Linkerd dashboard + +
+ Après avoir configuré notre intégration Linkerd, vous verrez un dashboard pour vos métriques Linkerd. +
+ + + + ## Installer l' agent d'infrastructure [#infra-install] + + Pour utiliser l’intégration Linkerd, vous devez également [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L'agent infrastructure monitore l'hôte lui-même, tandis que l'intégration que vous installerez à l'étape suivante étend votre monitoring avec des données spécifiques à Linkerd. + + + + ## exposer les métriques Linkerd [#expose-linkerd-metrics] + + 1. Utilisez le script suivant pour vérifier tous les pods Linkerd : + + ```shell + kubectl get pods -n + ``` + + * Remplacez `LINKERD_NAMESPACE` par l'espace de nommage réel où votre pod Linkerd s'exécute. + + 2. Ensuite, assurez-vous d’envoyer toutes les métriques au port 4191 pour chaque pod Linkerd : + + ```shell + kubectl port-forward --address 0.0.0.0 -n 4191:4191 & + ``` + + * Remplacez `LINKERD_NAMESPACE` par l'espace de nommage réel où vos pods Linkerd s'exécutent et `LINKERD_POD_NAME` par le nom réel de chaque pod Linkerd. + + + + ## Activer l'intégration de Linkerd avec nri-prometheus [#enable-linkerd] + + Pour configurer l’intégration Linkerd, suivez ces étapes : + + 1. Créez un fichier nommé `nri-prometheus-config.yml` dans le répertoire d'intégration : + + ```shell + touch /etc/newrelic-infra/integrations.d/nri-prometheus-config.yml + ``` + + 2. Ajoutez le snippet suivant à votre fichier `nri-prometheus-config.yml` pour permettre à l'agent de capturer les données Linkerd : + + ```yml + integrations: + - name: nri-prometheus + config: + # When standalone is set to false nri-prometheus requires an infrastructure agent to work and send data. Defaults to true + standalone: false + + # When running with infrastructure agent emitters will have to include infra-sdk + emitters: infra-sdk + + # The name of your cluster. It's important to match other New Relic products to relate the data. + cluster_name: "YOUR_DESIRED_CLUSTER_NAME" + + targets: + - description: Linkerd metrics list + urls: ["http://:4191/metrics","http://:9090/metrics"] + + # tls_config: + # ca_file_path: "/etc/etcd/etcd-client-ca.crt" + # cert_file_path: "/etc/etcd/etcd-client.crt" + # key_file_path: "/etc/etcd/etcd-client.key" + + # Whether the integration should run in verbose mode or not. Defaults to false + verbose: false + + # Whether the integration should run in audit mode or not. Defaults to false. + # Audit mode logs the uncompressed data sent to New Relic. Use this to log all data sent. + # It does not include verbose mode. This can lead to a high log volume, use with care + audit: false + + # The HTTP client timeout when fetching data from endpoints. Defaults to 30s. + # scrape_timeout: "30s" + + # Length in time to distribute the scraping from the endpoints + scrape_duration: "5s" + + # Number of worker threads used for scraping targets. + # For large clusters with many (>400) endpoints, slowly increase until scrape + # time falls between the desired `scrape_duration`. + # Increasing this value too much will result in huge memory consumption if too + # many metrics are being scraped. + # Default: 4 + # worker_threads: 4 + + # Whether the integration should skip TLS verification or not. Defaults to false + insecure_skip_verify: true + timeout: 10s + ``` + + + + ## Redémarrez l'agent New Relic Infrastructure + + Redémarrez votre agent d’infrastructure. + + ```shell + sudo systemctl restart newrelic-infra.service + ``` + + Dans quelques minutes, votre application enverra des métriques à [one.newrelic.com](https://one.newrelic.com). + + + + ## Trouvez vos données + + Vous pouvez choisir notre modèle dashboard prédéfini nommé `Linkerd` pour monitorer les métriques de votre application Linkerd. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com), aller à la page **+ Integrations & Agents** . + 2. Cliquez sur **Dashboards**. + 3. Dans la barre de recherche, tapez `Linkerd`. + 4. Lorsque l’option dashboard Linkerd apparaît, cliquez pour l’installer. + + Votre dashboard Linkerd est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l'utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + Voici une requête NRQL pour vérifier le nombre total de connexions en aval de Linkerd : + + ```sql + SELECT latest(process_virtual_memory_bytes)/(1024*1024) as 'Memory in MB' FROM Metric + ``` + + + +## Quelle est la prochaine étape ? + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage du dashboard ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/microsoft-sql/microsoft-sql-server-config.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/microsoft-sql/microsoft-sql-server-config.mdx new file mode 100644 index 00000000000..68f31b2baa1 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/microsoft-sql/microsoft-sql-server-config.mdx @@ -0,0 +1,397 @@ +--- +title: Paramètres de configuration de l'intégration de Microsoft SQL Server +tags: + - Integrations + - On-host integrations + - On-host integrations list + - Configuration +metaDescription: Configuration New Relic's Kafka integration. +freshnessValidatedDate: never +translationType: machine +--- + +Cette intégration est un logiciel open source. Cela signifie que vous pouvez [parcourir son code source](https://github.com/newrelic/nri-mssql) et envoyer des améliorations, ou créer votre propre fork et le construire. + +## Libellés et attribut personnalisé [#labels] + +Vous pouvez également décorer vos métriques avec des étiquettes. Les étiquettes vous permettent d'ajouter un attribut de paire valeur clé à vos métriques afin que vous puissiez interroger, filtrer ou regrouper vos métriques. + +Même si notre fichier de configuration d'exemple par défaut inclut des exemples d'étiquettes, ils sont facultatifs. Vous pouvez en supprimer, en modifier ou en ajouter de nouveaux. + +```yaml + labels: + env: production + role: load_balancer +``` + +### Paramètres de l'instance Microsoft SQL Server [#instance-settings] + +L'intégration Microsoft SQL Server collecte à la fois les informations Métriques et Inventaire. Dans le tableau, utilisez la colonne **Applies to** pour les paramètres disponibles pour chaque collection : + +' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **HOSTNAME** + + + nom d'hôte ou IP où le serveur MS SQL est exécuté. + + 127.0.0.1 + + MI +
+ + **PORT** + + + Port sur lequel le serveur MS SQL écoute. + +
+ + **Note**: Le port n'est requis que lorsque `INSTANCE` n'est pas spécifié. +
+ 1433 + + MI +
+ + **INSTANCE** + + + L'instance MS SQL Server à laquelle se connecter. + +
+ + **Note**:Requis uniquement lorsque `PORT` n'est pas spécifié. N'utilisez pas les deux. +
+ N/A + + MI +
+ + **USERNAME** + + + Nom d'utilisateur pour accéder au serveur MS SQL. + +
+ + Si vous utilisez un utilisateur de domaine, utilisez la syntaxe `domain\user` +
+ N/A + + MI +
+ + **PASSWORD** + + + Mot de passe pour l'utilisateur SQL ou de domaine donné. + + N/A + + MI +
+ + **EXTRA\_CONNECTION\_URL\_ARGS** + + + Spécifiez des paramètres de connexion supplémentaires comme attr1=val1&attr2=val2. + + N/A + + MI +
+ + **ENABLE\_SSL** + + + Utilisez SSL pour vous connecter au serveur MS SQL. + + FAUX + + MI +
+ + **TRUST\_SERVER\_CERTIFICATE** + + + si défini sur `true`, le certificat du serveur n'est PAS vérifié pour SSL. + + FAUX + + MI +
+ + **CERTIFICATE\_LOCATION** + + + Emplacement du certificat SSL. + + N/A + + MI +
+ + **TIMEOUT** + + + Délai d'expiration de la requête, en secondes. Définissez 0 pour aucun délai d'attente. + + 30 + + MI +
+ + **ENABLE\_BUFFER\_METRICS** + + + Activer la collecte des mesures de tampons de piscine. Ces opérations peuvent nécessiter beaucoup de ressources pour les systèmes volumineux. + + vrai + + M +
+ + **ENABLE\_DATABASE\_RESERVE\_METRICS** + + + Activer la collecte de l'espace de réserve de partition de base de données. Ces opérations peuvent nécessiter beaucoup de ressources pour les systèmes volumineux. + + vrai + + M +
+ + **CUSTOM\_METRICS\_QUERY** + + + Une requête SQL pour collecter des métriques personnalisées. Voir l'[exemple de requête personnalisée](/docs/infrastructure/host-integrations/host-integrations-list/microsoft-sql/microsoft-sql-server-integration#custom-query). + + N/A + + M +
+ + **CUSTOM\_METRICS\_CONFIG** + + + configuration YAML avec une ou plusieurs requêtes SQL pour collecter des métriques personnalisées. Voir l'[exemple de requêtes multiples personnalisées](/docs/infrastructure/host-integrations/host-integrations-list/microsoft-sql/microsoft-sql-server-integration#multi-custom-query). + + FAUX + + M +
+ + **METRICS** + + + Définissez sur `true` pour activer la collecte de métriques uniquement. + + FAUX + +
+ + **INVENTORY** + + + Définissez sur `true` pour activer la collecte d'inventaire uniquement. + + FAUX + +
+ +Les valeurs de ces paramètres peuvent être définies de plusieurs manières : + +* Ajout de la valeur directement dans le fichier de configuration. C'est la manière la plus courante. + +* Remplacement des valeurs des variables d’environnement à l’aide de la notation `{{ }}` . En savoir plus sur [l'utilisation des passthroughs de variables d'environnement avec l'intégration sur hôte](/docs/infrastructure/install-infrastructure-agent/configuration/configure-infrastructure-agent/#passthrough) ou voir l'exemple de [remplacement des variables d'environnement](/docs/infrastructure/host-integrations/host-integrations-list/elasticsearch/elasticsearch-integration#envvar-replacement). Cela nécessite l'agent d'infrastructure v1.14.0+. + +* Utilisation de la gestion des secrets. Utilisez ceci pour protéger les informations sensibles, telles que les mots de passe qui seraient exposés en texte brut dans le fichier de configuration. Pour plus d'informations, voir [gestion des secrets](/docs/integrations/host-integrations/installation/secrets-management). + +## Données d'inventaire [#inventory] + +L’intégration Microsoft SQL Server capture les paramètres de configuration et les paramètres actuels de l’environnement Microsoft SQL Server. Il collecte les résultats de la procédure stockée `sp_configure` , ainsi que les paramètres de configuration en cours d'exécution de la table `sys.configurations` . Les données sont disponibles sur la [page Inventaire](/docs/infrastructure/new-relic-infrastructure/infrastructure-ui-pages/infrastructure-inventory-page-search-your-entire-infrastructure), sous la source `config/mssql` . + +Pour en savoir plus sur les données d’inventaire, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations-getting-started/getting-started/understand-integration-data-data-types#inventory-data). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/microsoft-sql/microsoft-sql-server-query-performance.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/microsoft-sql/microsoft-sql-server-query-performance.mdx new file mode 100644 index 00000000000..ff9b18aca01 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/microsoft-sql/microsoft-sql-server-query-performance.mdx @@ -0,0 +1,753 @@ +--- +title: monitoringdu niveau de requête d'intégration de Microsoft SQL Server +tags: + - Integrations + - On-host integrations + - On-host integrations list + - Configuration +metaDescription: Configuration New Relic's Kafka integration. +freshnessValidatedDate: never +translationType: machine +--- + + + Nous travaillons toujours sur cette fonctionnalité, mais nous aimerions que vous l'essayiez ! + + Cette fonctionnalité est actuellement fournie dans le cadre d'un aperçu conformément à nos [politiques de pré-sortie](https://docs.newrelic.com/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy/). + + +Vous pouvez afficher une analyse au niveau des requêtes pour monitorer vos requêtes SQL dans votre base de données MSSQL afin d'évaluer leurs performances et leur impact. Cette fonctionnalité fournit des informations détaillées sur les temps d'exécution, la consommation des ressources et les goulots d'étranglement potentiels, vous permettant d'optimiser les opérations de base de données. Pour plus d'informations, reportez [-vous à Analyse au niveau des requêtes](/docs/infrastructure/infrastructure-data/query-level-monitoring). + +Query Performance monitoring + +## Prérequis : + +* Microsoft SQL Server prend en charge les versions 2017, 2019 ou 2022. +* L'utilisateur de la base de données doit être membre du rôle de serveur fixe sysadmin ou disposer de l'autorisation `VIEW SERVER STATE` . + +Pour activer la fonctionnalité monitoring au niveau des requêtes, procédez comme suit : + + + + ## Pour activer le mode d'authentification SQL Server et Windows + + Activez la connexion sur le serveur SQL et le mode d'authentification Windows. Pour plus d’informations, reportez-vous [à la documentation Microsoft sur le changement du mode d’authentification](https://learn.microsoft.com/en-us/sql/database-engine/configure-windows/change-server-authentication-mode?view=sql-server-ver16&tabs=ssms). + + + + ## Pour activer TCP + + 1. Assurez-vous que TCP est activé pour l'accès à distance sur votre instance à l'aide de la [documentation](https://learn.microsoft.com/en-us/sql/database-engine/configure-windows/configure-a-server-to-listen-on-a-specific-tcp-port?view=sql-server-ver16) + 2. Vérifiez les paramètres du pare-feu : + + * Assurez-vous que votre pare-feu autorise le trafic sur le port `1433`. Il s'agit du port d'écoute de Microsoft SQL Server : + + * Ouvrez **Windows Defender Firewall with Advanced Security**. + * Dans le menu de gauche, cliquez sur **Inbound Rules**. + * Recherchez n'importe quelle règle pour SQL Server (généralement nommée SQL Server (TCP-In) ou SQL Server TCP 1433). + * Si une règle n’existe pas, créez une nouvelle règle pour autoriser le trafic TCP sur le port 1433. + + + + ## Pour activer le magasin de requêtes [#queryStore] + + Exécutez la commande suivante + + ```sql + ALTER DATABASE DATABASE_NAME SET QUERY_STORE = ON ( QUERY_CAPTURE_MODE = ALL, DATA_FLUSH_INTERVAL_SECONDS = 900 ) + ``` + + + + ## Exécutez la requête ci-dessous pour confirmer si le magasin de requêtes est activé [#confirmQueryStore] + + Si la sortie de la requête est 1, nous pouvons supposer que le magasin de requêtes est activé. + + ```sql + SELECT is_query_store_on FROM sys.databases where physical_database_name = DATABASE_NAME + ``` + + + + ## Pour intégrer l'agent MSSQL + + Intégrez l'agent MSSQL à l'aide de [ce guide.](/install/microsoft-sql) + + + + ## Pour configurer l'intégration MSSQL pour activer monitoringdes performances des requêtes + + 1. Pour changer le répertoire vers le dossier de configuration de l'intégration, exécutez : + + ```bash + cd "C:\Program Files\New Relic\newrelic-infra\integrations.d\" + ``` + + 2. Modifiez le fichier `mssql-config.yml` avec la configuration suivante : + + * `ENABLE_QUERY_MONITORING` - Activer monitoring des performances des requêtes - La valeur par défaut est `false`. + * `QUERY_MONITORING_RESPONSE_TIME_THRESHOLD `- Définissez le seuil de temps de réponse de la requête en ms pour récupérer les métriques de performance de la requête individuelle. Le `Defaults` est défini sur `500 ms`. + * `QUERY_MONITORING_COUNT_THRESHOLD` - Le nombre d'enregistrements pour chaque requête performance métriques. Le `Defaults` est défini sur `20`. + + ```yaml + integrations: + - name: nri-mssql + env: + HOSTNAME: localhost + PORT: 1433 + USERNAME: USERNAME + PASSWORD: PASSWORD + ENABLE_SSL: true + TRUST_SERVER_CERTIFICATE: true + # Enable collection of detailed query performance metrics. + ENABLE_QUERY_MONITORING: true + # Threshold in milliseconds for query response time. If response time exceeds this threshold, the query will be considered slow. + QUERY_MONITORING_RESPONSE_TIME_THRESHOLD: 500 + # Maximum number of queries returned in query analysis results. + QUERY_MONITORING_COUNT_THRESHOLD: 20 + # Interval in seconds for fetching grouped slow queries; Should always be same as mysql-config interval. + QUERY_MONITORING_FETCH_INTERVAL: 15 + interval: 15s + labels: + environment: production + inventory_source: config/mssql + ``` + + + + ## Trouvez vos données + + Vous pouvez utiliser notre modèle dashboard prédéfini pour monitorer vos métriques MSSQL. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com), aller à la page **+ Integrations & Agents** . + 2. Cliquez **Dashboards** + 3. Dans la barre de recherche, tapez `MSSQL On-Host Integration` + 4. Le dashboard MSSQL apparaît. Cliquez dessus pour l'installer. + + + +## Métriques collectées par l'intégration + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `blocking_spid` + + L'ID de la session de blocage. +
+ `blocking_status` + + L'état de la session de blocage. +
+ `blocked_spid` + + L'ID de la session bloquée. +
+ `blocked_status` + + Le statut de la session bloquée. +
+ `wait_type` + + Le type d’attente subi par la session bloquée. +
+ `wait_time_in_seconds` + + Le temps d'attente de la session en secondes. +
+ `command_type` + + Le type de commande en cours d'exécution. +
+ `database_name` + + Le nom de la base de données dans laquelle le blocage se produit. +
+ `blocking_query_text` + + Le texte de la requête à l'origine du blocage. +
+ `blocked_query_text` + + Le texte de la requête bloquée. +
+ `blocked_query_start_time` + + L'heure de début de la requête bloquée. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `sql_text` + + Le texte de l'instruction SQL. +
+ `query_id` + + L'identifiant unique de la requête. +
+ `query_plan_id` + + L'identifiant unique du plan de requête. +
+ `NodeId` + + L'ID du nœud dans le plan d'exécution. +
+ `PhysicalOp` + + L'opération physique effectuée par ce nœud. +
+ `LogicalOp` + + L'opération logique représentée par ce nœud. +
+ `EstimateRows` + + Le nombre estimé de lignes que cette opération produira. +
+ `EstimateIO` + + Le coût d'I/O estimé de cette opération. +
+ `EstimateCPU` + + Le coût CPU estimé de cette opération. +
+ `AvgRowSize` + + La taille moyenne des lignes traitées par ce nœud. +
+ `TotalSubtreeCost` + + Le coût total estimé pour l’exécution de ce sous-arbre. +
+ `EstimatedOperatorCost` + + L'estimation des coûts de fonctionnement du nœud. +
+ `EstimatedExecutionMode` + + Le mode d'exécution estimé de cette opération. +
+ `GrantedMemoryKb` + + La quantité de mémoire accordée pour cette requête en kilo-octets. +
+ `SpillOccurred` + + Un indicateur booléen indiquant si un déversement s'est produit. +
+ `NoJoinPredicate` + + Un indicateur booléen indiquant s'il existe un prédicat de jointure. +
+ `total_worker_time` + + Le temps total de travail en millisecondes. +
+ `total_elapsed_time` + + Le temps total écoulé en millisecondes. +
+ `total_logical_reads` + + Le nombre total de lectures logiques effectuées. +
+ `total_logical_writes` + + Le nombre total d'écritures logiques effectuées. +
+ `execution_count` + + Le nombre de fois que la requête a été exécutée. +
+ `plan_handle` + + Le handle du plan utilisé pour récupérer le plan. +
+ `avg_elapsed_time_ms` + + Le temps moyen écoulé en millisecondes. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ query_id + + L'identifiant unique de la requête. +
+ database_name + + Le nom de la base de données. +
+ query_text + + Le texte de la requête. +
+ wait_category + + La catégorie d’attente vécue par la requête. +
+ total_wait_time_ms + + La durée totale du temps d'attente en millisecondes. +
+ avg_wait_time_ms + + Le temps d'attente moyen en millisecondes. +
+ wait_event_count + + Le nombre d'événements d'attente qui se sont produits. +
+ last_execution_time + + L'heure de la dernière exécution de la requête. +
+ collection_timestamp + + L'horodatage du moment où les données ont été collectées. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Métriques + + Description +
+ query_id + + L'identifiant unique de la requête. +
+ query_text + + Le texte de la requête. +
+ database_name + + Le nom de la base de données. +
+ schema_name + + Le nom du schéma. +
+ last_execution_timestamp + + L'horodatage de la dernière exécution de la requête. +
+ execution_count + + Le nombre de fois que la requête a été exécutée. +
+ avg_cpu_time_ms + + Le temps CPU moyen en millisecondes. +
+ avg_elapsed_time_ms + + Le temps moyen écoulé en millisecondes. +
+ avg_disk_reads + + Le nombre moyen de lectures sur disque. +
+ avg_disk_writes + + Le nombre moyen d'écritures sur le disque. +
+ statement_type + + Le type d'instruction SQL. +
+ collection_timestamp + + L'horodatage du moment où les données ont été collectées. +
+
+
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs.mdx new file mode 100644 index 00000000000..db3bd2d2f3e --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs.mdx @@ -0,0 +1,355 @@ +--- +title: Services de monitoring exécutés sur Amazon ECS +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: 'Enable infrastructure monitoring of services running on Amazon ECS (like NGINX, Redis, MySQL, others) in New Relic.' +freshnessValidatedDate: never +translationType: machine +--- + +Si vous avez des services qui s'exécutent sur un conteneur Docker dans Amazon ECS et qui sont [pris en charge](#requirements), vous pouvez activer ces intégrations via notre intégration ECS. Ceci rapporte les données de vos services de monitoring, de l'hôte et du conteneur. + +## Exigences [#requirements] + +Pour monitorer les services exécutés sur ECS, vous devez répondre aux exigences suivantes : + +* Un service pris en charge exécuté sur ECS qui répond à nos exigences. Les services pris en charge incluent : + + * [Apache](/docs/integrations/host-integrations/host-integrations-list/apache-monitoring-integration) + * [Cassandre](/docs/integrations/host-integrations/host-integrations-list/cassandra-monitoring-integration) + * [Base de canapé](/docs/integrations/host-integrations/host-integrations-list/couchbase-monitoring-integration) + * [Elasticsearch](/docs/integrations/host-integrations/host-integrations-list/elasticsearch-monitoring-integration) + * [HAProxy](/docs/integrations/host-integrations/host-integrations-list/haproxy-monitoring-integration) + * [Consul de HashiCorp](/docs/integrations/host-integrations/host-integrations-list/hashicorp-consul-monitoring-integration) + * [JMX](/docs/integrations/host-integrations/host-integrations-list/jmx-monitoring-integration) + * [Kafka](/docs/integrations/host-integrations/host-integrations-list/kafka-monitoring-integration) + * [Memcached](/docs/integrations/host-integrations/host-integrations-list/memcached-monitoring-integration) + * [MongoDB](/docs/integrations/host-integrations/host-integrations-list/mongodb-monitoring-integration) + * [MySQL](/docs/integrations/host-integrations/host-integrations-list/mysql-monitoring-integration) + * [NGINX](/docs/integrations/host-integrations/host-integrations-list/nginx-monitoring-integration) + * [PostgreSQL](/docs/integrations/host-integrations/host-integrations-list/postgresql-monitoring-integration) + * [RabbitMQ](/docs/integrations/host-integrations/host-integrations-list/rabbitmq-monitoring-integration) + * [Redis](/docs/integrations/host-integrations/host-integrations-list/redis-monitoring-integration) + +* Un ECS à [mise à](https://aws.amazon.com/autoscaling) l'échelle automatique cluster exécutant Amazon Linux, CentOS ou RHEL qui répond aux [infrastructure exigences et à la compatibilité de l'agent](/docs/infrastructure/new-relic-infrastructure/getting-started/compatibility-requirements-new-relic-infrastructure). + +* Les tâches ECS doivent avoir [le mode réseau](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/task_definition_parameters.html#network_mode) défini sur `none` ou `bridge` (`awsvpc` et `host` non pris en charge). + +Limites: + +* Pour cette méthode d'installation, notre intégration RabbitMQ et Apache ne rapporte pas de données d'inventaire. +* AWS Fargate n'est pas pris en charge. + +## Comment activer [#enable-overview] + +Avant d'expliquer comment activer monitoring des services exécutés dans ECS, voici un aperçu du processus : + +1. [Activez Amazon EC2](#enable-ec2) pour installer notre agent infrastructure sur votre cluster ECS. +2. [Activer monitoring des services](#enable-services) à l’aide d’un fichier configuration spécifique au service. + +## Étape 1 : Activer EC2 pour installer l’agent d’infrastructure [#enable-ec2] + +Tout d’abord, vous devez activer Amazon EC2 pour installer notre agent infrastructure sur le cluster ECS. Pour ce faire, vous devez d’abord mettre à jour vos données utilisateur pour installer l’agent d’infrastructure au lancement. + +Voici les instructions pour modifier la configuration de lancement d'EC2 (extraites de [la documentation Amazon EC2](https://docs.aws.amazon.com/autoscaling/ec2/userguide/change-launch-config.html)) : + +1. Ouvrez la [console Amazon EC2](https://console.aws.amazon.com/ec2). + +2. Dans le volet de navigation, sous **Auto scaling**, choisissez **Launch configurations**. + +3. Sur la page suivante, sélectionnez la configuration de lancement que vous souhaitez mettre à jour. + +4. Faites un clic droit et sélectionnez **Copy launch configuration**. + +5. Dans l’onglet **Launch configuration details** , cliquez sur **Edit details**. + +6. Remplacez les données de l'utilisateur par l'un des extraits suivants : + + + + Remplacez les champs mis en surbrillance par les valeurs pertinentes : + + ``` + Content-Type: multipart/mixed; boundary="MIMEBOUNDARY" + MIME-Version: 1.0 + + --MIMEBOUNDARY + Content-Disposition: attachment; filename="init.cfg" + Content-Transfer-Encoding: 7bit + Content-Type: text/cloud-config + Mime-Version: 1.0 + + yum_repos: + newrelic-infra: + baseurl: https://download.newrelic.com/infrastructure_agent/linux/yum/el/6/x86_64 + gpgkey: https://download.newrelic.com/infrastructure_agent/gpg/newrelic-infra.gpg + gpgcheck: 1 + repo_gpgcheck: 1 + enabled: true + name: New Relic Infrastructure + write_files: + - content: | + --- + # New Relic config file + license_key: YOUR_LICENSE_KEY + path: /etc/newrelic-infra.yml + packages: + - newrelic-infra + - nri-* + runcmd: + - [ yum, install, newrelic-infra, -y ] + - [ systemctl, daemon-reload ] + - [ systemctl, enable, newrelic-infra.service ] + - [ systemctl, start, --no-block, newrelic-infra.service ] + + --MIMEBOUNDARY + Content-Transfer-Encoding: 7bit + Content-Type: text/x-shellscript + Mime-Version: 1.0 + + #!/bin/bash + + # ECS config + { + echo "ECS_CLUSTER=YOUR_CLUSTER_NAME" + } >> /etc/ecs/ecs.config + + start ecs + + echo "Done" + --MIMEBOUNDARY-- + ``` + + + + Remplacez les champs mis en surbrillance par les valeurs pertinentes : + + ``` + Content-Type: multipart/mixed; boundary="MIMEBOUNDARY" + MIME-Version: 1.0 + + --MIMEBOUNDARY + Content-Disposition: attachment; filename="init.cfg" + Content-Transfer-Encoding: 7bit + Content-Type: text/cloud-config + Mime-Version: 1.0 + + yum_repos: + newrelic-infra: + baseurl: https://download.newrelic.com/infrastructure_agent/linux/yum/el/7/x86_64 + gpgkey: https://download.newrelic.com/infrastructure_agent/gpg/newrelic-infra.gpg + gpgcheck: 1 + repo_gpgcheck: 1 + enabled: true + name: New Relic Infrastructure + write_files: + - content: | + --- + # New Relic config file + license_key: YOUR_LICENSE_KEY + path: /etc/newrelic-infra.yml + packages: + - newrelic-infra + - nri-* + runcmd: + - [ yum, install, newrelic-infra, -y ] + - [ systemctl, daemon-reload ] + - [ systemctl, enable, newrelic-infra.service ] + - [ systemctl, start, --no-block, newrelic-infra.service ] + + --MIMEBOUNDARY + Content-Transfer-Encoding: 7bit + Content-Type: text/x-shellscript + Mime-Version: 1.0 + + #!/bin/bash + + # ECS config + { + echo "ECS_CLUSTER=YOUR_ECS_CLUSTER_NAME" + } >> /etc/ecs/ecs.config + + start ecs + + echo "Done" + --MIMEBOUNDARY-- + ``` + + + + Remplacez les champs mis en surbrillance par les valeurs pertinentes : + + ``` + Content-Type: multipart/mixed; boundary="MIMEBOUNDARY" + MIME-Version: 1.0 + + --MIMEBOUNDARY + Content-Disposition: attachment; filename="init.cfg" + Content-Transfer-Encoding: 7bit + Content-Type: text/cloud-config + Mime-Version: 1.0 + + yum_repos: + newrelic-infra: + baseurl: https://download.newrelic.com/infrastructure_agent/linux/yum/amazonlinux/2/x86_64 + gpgkey: https://download.newrelic.com/infrastructure_agent/gpg/newrelic-infra.gpg + gpgcheck: 1 + repo_gpgcheck: 1 + enabled: true + name: New Relic Infrastructure + write_files: + - content: | + --- + # New Relic config file + license_key: YOUR_LICENSE_KEY + path: /etc/newrelic-infra.yml + packages: + - newrelic-infra + - nri-* + runcmd: + - [ yum, install, newrelic-infra, -y ] + - [ systemctl, daemon-reload ] + - [ systemctl, enable, newrelic-infra.service ] + - [ systemctl, start, --no-block, newrelic-infra.service ] + + --MIMEBOUNDARY + Content-Transfer-Encoding: 7bit + Content-Type: text/x-shellscript + Mime-Version: 1.0 + + #!/bin/bash + + # ECS config + { + echo "ECS_CLUSTER=YOUR_ECS_CLUSTER_NAME" + } >> /etc/ecs/ecs.config + + start ecs + + echo "Done" + --MIMEBOUNDARY-- + ``` + + + +7. Choisissez **Skip to review**. + +8. Choisissez **Create launch configuration**. + +Ensuite, mettez à jour le groupe de mise à l’échelle automatique : + +1. Ouvrez la [console Amazon EC2](https://console.aws.amazon.com/ec2). +2. Dans le volet de navigation, sous **Auto scaling**, choisissez **Auto scaling groups**. +3. Sélectionnez le groupe de mise à l’échelle automatique que vous souhaitez mettre à jour. +4. Dans le menu **Actions** , choisissez **Edit**. +5. Dans le menu déroulant de **Launch configuration**, sélectionnez la nouvelle configuration de lancement créée. +6. Cliquez sur **Save**. + +Pour tester si l'agent détecte automatiquement l'instance, [terminez l'nstanceEC2 d'une instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/terminating-instances.html) dans le groupe de mise à l'échelle automatique : l'nstance de remplacement sera désormais lancée avec les nouvelles données utilisateur. Après cinq minutes, vous devriez voir les données du nouvel hôte sur la [page Hôtes](/docs/infrastructure/infrastructure-ui-pages/hosts-new-view). + +Ensuite, passez à l’activation de la monitoring des services. + +## Étape 2 : Activer monitoring des services [#enable-services] + +Une fois que vous [avez activé EC2 pour exécuter l'agent infrastructure ](#enable-ec2), l'agent commence monitoring le conteneur en cours d'exécution sur cet hôte. + +Ensuite, nous expliquerons comment monitorer les services déployés sur ECS. Par exemple, vous pouvez monitorer une tâche ECS contenant une instance NGINX qui se trouve devant votre serveur d’applications. + +Voici un bref aperçu de la manière dont vous monitoreriez un déploiement [de service pris en charge](#requirements) sur ECS : + +1. Créez un fichier configuration YAML pour le service que vous souhaitez monitorer. Cela sera éventuellement placé dans la section des données utilisateur EC2 via la console AWS. Mais avant de faire cela, vous pouvez tester que la configuration fonctionne en plaçant ce fichier dans le dossier de l'agent d'infrastructure (`etc/newrelic-infra/integrations.d`) dans EC2. Ce fichier de configuration doit utiliser notre format [de découverte automatique de conteneur](/docs/integrations/host-integrations/installation/container-auto-discovery) , qui lui permet de trouver automatiquement le conteneur. Les options de configuration exactes dépendront de l'[intégration](/docs/integrations/host-integrations/host-integrations-list) spécifique. +2. Vérifiez que les données du service sont transmises à New Relic. +3. Si vous êtes satisfait des données que vous voyez, vous pouvez ensuite utiliser la console EC2 pour ajouter cette configuration à la configuration de lancement appropriée, dans la section `write_files` , puis mettre à jour le groupe de mise à l'échelle automatique. +4. Dans la section `runcmd` , ajoutez la commande `yum` pour installer l’intégration dans la configuration de lancement appropriée. + +Voici un exemple détaillé de la procédure ci-dessus pour NGINX : + +1. Assurez-vous d'avoir un accès SSH au serveur ou un accès à [AWS système Manager Session Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/session-manager.html). connectez-vous à l'hôte exécutant l'agent infrastructure . + +2. Via la ligne de commande, changez le répertoire vers le dossier configuration de l'intégration : + + ```shell + cd /etc/newrelic-infra/integrations.d + ``` + +3. Créez un fichier appelé `nginx-config.yml` et ajoutez le snippet suivant : + + ```yml + --- + discovery: + docker: + match: + image: /nginx/ + integrations: + - name: nri-nginx + env: + STATUS_URL: http://${discovery.ip}:${discovery.port}/status + REMOTE_MONITORING: true + METRICS: 1 + ``` + + Cette configuration amène l'agent infrastructure à rechercher des conteneurs dans ECS contenant `nginx`. Une fois qu'un conteneur correspond, il se connecte ensuite à la page d'état NGINX. Pour plus de détails sur le fonctionnement de le snippet `discovery.ip`, voir [auto-discovery](/docs/integrations/host-integrations/installation/container-auto-discovery). Pour plus de détails sur la configuration générale de NGINX, consultez l'[intégration NGINX](/docs/integrations/host-integrations/host-integrations-list/nginx-monitoring-integration#config). + +4. Si votre page d’état NGINX est configurée pour traiter requests du `STATUS_URL` sur le port 80, l’agent infrastructure commence à le monitoring . Après cinq minutes, vérifiez que les données NGINX apparaissent dans notre UI infrastructure (soit : **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > Third party services** **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > Third-party services**ou). + +5. Si la configuration fonctionne, placez-la dans la configuration de lancement EC2 : + + 1. Ouvrez la [console Amazon EC2](https://console.aws.amazon.com/ec2). + + 2. Dans le volet de navigation, sous **Auto scaling**, choisissez **Launch configurations**. + + 3. Sur la page suivante, sélectionnez la configuration de lancement que vous souhaitez mettre à jour. + + 4. Faites un clic droit et sélectionnez **Copy launch configuration**. + + 5. Dans l’onglet **Launch configuration details** , cliquez sur **Edit details**. + + 6. Dans la section **User data** , modifiez la section `write_files` (dans la partie marquée `text/cloud-config`). + + 7. Ajouter un nouveau fichier/une nouvelle entrée de contenu : + + ```yml + - content: | + --- + discovery: + docker: + match: + image: /nginx/ + integrations: + - name: nri-nginx + env: + STATUS_URL: http://${discovery.ip}:${discovery.port}/status + REMOTE_MONITORING: true + METRICS: 1 + path: /etc/newrelic-infra/integrations.d/nginx-config.yml + ``` + + 8. Modifiez également la section `runcmd` pour inclure la commande `yum` pour installer `nri-nginx`: + + ```yml + runcmd: + - [ yum, install, newrelic-infra, -y ] + - [ yum, install, nri-nginx, -y ] + - [ systemctl, daemon-reload ] + - [ systemctl, enable, newrelic-infra.service ] + - [ systemctl, start, --no-block, newrelic-infra.service ] + ``` + +6. Choisissez **Skip to review**. + +7. Choisissez **Create launch configuration**. + +8. Ensuite, mettez à jour le groupe de mise à l’échelle automatique : + + 1. Ouvrez la [console Amazon EC2](https://console.aws.amazon.com/ec2/). + 2. Dans le volet de navigation, sous **Auto scaling**, choisissez **Auto scaling groups**. + 3. Sélectionnez le groupe de mise à l’échelle automatique que vous souhaitez mettre à jour. + 4. Dans le menu **Actions** , choisissez **Edit**. + 5. Dans le menu déroulant de **Launch configuration**, sélectionnez la nouvelle configuration de lancement créée. + 6. Cliquez sur **Save**. + +Lorsqu'une instanceEC2 est terminée, elle est remplacée par une nouvelle qui recherche automatiquement un nouveau conteneur NGINX. + + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nagios-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nagios-monitoring-integration.mdx new file mode 100644 index 00000000000..0ecc0b5e0f4 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nagios-monitoring-integration.mdx @@ -0,0 +1,462 @@ +--- +title: Intégration monitoring Nagios +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: 'New Relic''s Nagios integration: how to enable it, what data it reports, and how to configure.' +freshnessValidatedDate: never +translationType: machine +--- + +Notre [intégration](/docs/integrations/host-integrations/getting-started/introduction-host-integrations) Nagios vous permet d'utiliser vos contrôles de service directement, sans avoir besoin d'exécuter une instance Nagios. + +Lisez la suite pour installer l’intégration et voir quelles données nous collectons. + +## Compatibilité et exigences [#comp-req] + +Notre intégration est compatible avec tout service existant conforme à l'[API du plugin Nagios](https://assets.nagios.com/downloads/nagioscore/docs/nagioscore/3/en/pluginapi.html). + +Avant d’installer l’intégration, assurez-vous que vous répondez aux exigences suivantes : + +* [Installez l'agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic). +* Distribution Linux ou version du système d'exploitation Windows [compatible avec l'agent d'infrastructure de New Relic](/docs/infrastructure/new-relic-infrastructure/getting-started/compatibility-requirements-new-relic-infrastructure). + +## Démarrage rapide [#quick] + +instrumentez votre instance Nagios rapidement et envoyez vos données télémétriques avec installation guidée. Notre installation guidée crée une commande CLI personnalisée pour votre environnement qui télécharge et installe la CLI New Relic et l'agent d'infrastructure. + +Prêt à commencer ? Cliquez sur l'un de ces boutons pour l'essayer. + + + + Installation guidée + + + + Guide d'installation de l'UE + + + +## Installer et activer [#install] + +Pour installer l’intégration Nagios : + + + + 1. Installez [l'agent d'infrastructure](/docs/integrations/host-integrations/installation/install-infrastructure-host-integrations/#install) et remplacez la variable `INTEGRATION_FILE_NAME` par `nri-nagios`. + + 2. Changer de répertoire vers le dossier d'intégration : + + ``` + cd /etc/newrelic-infra/integrations.d + ``` + + 3. Copie du fichier de configuration d'exemple : + + ``` + sudo cp nagios-config.yml.sample nagios-config.yml + ``` + + 4. Créez une copie du fichier d’exemple de contrôles de service en exécutant : + + ``` + sudo cp nagios-service-checks.yml.sample nagios-service-checks.yml + ``` + + 5. Modifiez le fichier `nagios-config.yml` comme décrit dans les [paramètres de configuration](#config). + + + + 1. Téléchargez l'image du programme d'installation `nri-nagios` .MSI depuis : + + [https://download.newrelic.com/infrastructure\_agent/windows/integrations/nri-nagios/nri-nagios-amd64.msi](https://download.newrelic.com/infrastructure_agent/windows/integrations/nri-nagios/nri-nagios-amd64.msi) + + 2. Pour installer à partir de l’invite de commande Windows, exécutez : + + ``` + msiexec.exe /qn /i PATH\TO\nri-nagios-amd64.msi + ``` + + 3. Dans le répertoire d’intégration, `C:\Program Files\New Relic\newrelic-infra\integrations.d\`, créez une copie du fichier configuration d’exemple en exécutant : + + ``` + copy nagios-config.yml.sample nagios-config.yml + ``` + + 4. Modifiez le fichier `nagios-config.yml` comme décrit dans les [paramètres de configuration](#config). + + 5. Dans le répertoire d’intégration, `C:\Program Files\New Relic\newrelic-infra\integrations.d\`, créez un fichier `nagios-service-checks.yml` qui décrit les contrôles de service à exécuter par l’intégration. + + Pour un exemple de configuration, consultez le [fichier d'exemple de vérifications de service](#example-service-checks-yml). + + + +Notes supplémentaires : + +* **Advanced:** Il est également possible d'[installer l'intégration à partir d'un fichier tarball](/docs/integrations/host-integrations/installation/install-host-integrations-built-new-relic#tarball). Cela vous donne un contrôle total sur le processus d'installation et de configuration. +* **On-host integrations do not automatically update.** Pour de meilleurs résultats, mettez régulièrement [à jour le package d'intégration](/docs/integrations/host-integrations/installation/update-infrastructure-host-integration-package) et [l'agent d'infrastructure](/docs/infrastructure/new-relic-infrastructure/installation/update-infrastructure-agent). + + + +## Configurer l'intégration [#config] + +La configuration au format YAML d'une intégration est l'endroit où vous pouvez placer les informations de connexion requises et configurer la manière dont les données sont collectées. Les options que vous modifiez dépendent de votre configuration et de vos préférences. + +Pour un exemple de configuration, voir les [exemples nagios-config.yml et nagios-service-checks.yml](#example-config). + +Nos fichiers configuration contiennent des paramètres communs utilisés dans toutes nos intégrations, tels que `interval`, `timeout` et`inventory_source`, entre autres. Pour plus d'informations sur ces paramètres courants, consultez cette [liste de propriétés de configuration](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-newer-configuration-format/#options-list). + +Les paramètres spécifiques liés à Nagios sont définis à l'aide de la section `env` du fichier de configuration. Ces paramètres contrôlent la connexion à votre instance Nagios ainsi que d'autres paramètres et fonctionnalités de sécurité. + +## Paramètres de l'instance Nagios [#instance-settings] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut +
+ + **SERVICE\_CHECKS\_CONFIG** + + + Cela pointe vers un [fichier yaml](#service-checks-yaml) contenant les définitions des contrôles de service qui seront exécutés par l'intégration. **Required.** + + N/A +
+ + **CONCURRENCY** + + + Le nombre de contrôles de service à exécuter simultanément. + + 1 +
+ + **OUTPUT\_TABLE\_NAME** + + + Le nom de la table dans laquelle les résultats de la vérification du service sont enregistrés. + + Exemple de vérification de service Nagios +
+ +## Le service vérifie le fichier de configuration [#service-checks-yaml] + +Le fichier yaml `service_checks_config` contient l'éventail de niveau supérieur `service_checks`. Chaque contrôle de service doit contenir à la fois un `name` et un `command`. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Clé + + Description +
+ `name` + + La convention de nommage n'est pas spécifique et permet une reconnaissance facile dans notre UI infrastructure. +
+ `command` + + La commande est un éventail de chaînes, la première position contenant le chemin vers l'exécutable et les positions restantes contenant les arguments de l'exécutable. +
+ `labels` + + Une collection de paires valeur-clé qui aident à identifier et à regrouper les contrôles de service dans New Relic. +
+ `parse_output` + + Tente d'analyser la sortie des contrôles de service conformes à la [spécification de l'API du plug-in Nagios](https://assets.nagios.com/downloads/nagioscore/docs/nagioscore/3/en/pluginapi.html). Par défaut : `false`. +
+ +Ces valeurs de réglage peuvent être définies de plusieurs manières : + +* Ajoutez les valeurs directement dans le fichier de configuration. +* Remplacez les valeurs des variables d’environnement en utilisant la notation `{{}}` . Cela nécessite l'agent d'infrastructure version 1.14.0 ou supérieure. Lire la suite [ici](/docs/infrastructure/install-infrastructure-agent/configuration/configure-infrastructure-agent/#passthrough). +* Utilisez la gestion des secrets pour protéger les informations sensibles, telles que les mots de passe, afin qu'elles ne soient pas exposées en texte brut dans le fichier de configuration. Pour plus d'informations, voir [gestion des secrets](/docs/integrations/host-integrations/installation/secrets-management). + +### Étiquettes/attributs personnalisés [#labels] + +Les variables d’environnement peuvent être utilisées pour contrôler les paramètres de configuration, tels que votre , et sont ensuite transmises à l’agent d’infrastructure. Pour obtenir des instructions sur l’utilisation de la fonctionnalité de transfert, consultez [Configurer l’agent d’infrastructure](/docs/infrastructure/new-relic-infrastructure/configuration/configure-infrastructure-agent#passthrough). + +Vous pouvez également décorer vos métriques à l’aide d’étiquettes. Les étiquettes vous permettent d'ajouter un attribut de paire valeur clé à vos métriques. Vous pouvez utiliser ces étiquettes pour interroger, filtrer ou regrouper vos métriques. + +Notre fichier de configuration d'exemple par défaut inclut des exemples avec des étiquettes, vous pouvez supprimer, modifier ou ajouter de nouvelles étiquettes de votre choix. + +``` + labels: + env: production + role: nagios +``` + +### Autorisations + +Les commandes non configurables sont exécutées par l'agent d'infrastructure, qui est lui-même exécuté par l'utilisateur root. Pour que l'intégration fonctionne correctement, assurez-vous que les autorisations sur le fichier yaml sont suffisamment restrictives comme indiqué ci-dessous : + + + + Définissez l’indicateur d’autorisations utilisateur sur `0600`, limitant les privilèges de lecture et d’écriture au propriétaire du fichier. Si les autorisations ne répondent pas à cette exigence, une [erreur sera enregistrée](#config-parsing-failed) et l'intégration échouera. + + + + Par défaut, l'agent et toutes les commandes du fichier yaml s'exécutent en tant qu'administrateur. Comme l'intégration n'est pas en mesure de vérifier les autorisations, il appartient à l'utilisateur de restreindre de manière appropriée les autorisations pour le fichier. + + + +## Exemple de configuration [#example-config] + +Exemple de configuration de fichier : + + + Exemple de configuration + nagios-config.yml + + } + > + ``` + integrations: + - name: nri-nagios + env: + CONCURRENCY: "1" + SERVICE_CHECKS_CONFIG: /etc/newrelic-infra/integrations.d/nagios-service-checks.yml + interval: 15s + ``` + + + Exemple de configuration + nagios-service-checks.yml + + } + > + ``` + service_checks: + - name: check_users + command: ["/usr/local/nagios/libexec/check_users", "-w", "5", "-c", "10"] + parse_output: true + labels: + env: staging + key1: val1 + - name: check_yum + command: ["/usr/local/nagios/libexec/check_yum"] + ``` + + + +Pour en savoir plus sur la structure générale de l'intégration sur hôte configuration, voir [configuration](/docs/integrations/integrations-sdk/file-specifications/host-integration-configuration-overview). + +## Rechercher et utiliser des données [#find-and-use] + +Pour trouver vos données d’intégration, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > Third-party services** et sélectionnez l’un des liens d’intégration Nagios. + +Les données Nagios sont attachées au [type d'événement](/docs/using-new-relic/welcome-new-relic/getting-started/glossary#event) `NagiosServiceCheckSample` . + +Pour en savoir plus sur la recherche et l’utilisation de vos données, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +L'intégration Nagios collecte l'attribut de données métriques suivant. + +### Exemples de mesures de vérification du service Nagios [#nagios-service-check-sample] + +Ces attributs peuvent être trouvés en interrogeant le type d'événement `NagiosServiceCheckSample` . + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `serviceCheck.command` + + La commande utilisée pour exécuter la vérification du service. +
+ `serviceCheck.error` + + La sortie d'erreur standard (stderr) du contrôle de service. +
+ `serviceCheck.longServiceOutput` + + La partie du message analysée par Nagios comme `$LONGSERVICEOUTPUT$`. Activé uniquement si `parse_output` est défini. +
+ `serviceCheck.message` + + La sortie standard (stdout) du contrôle de service. +
+ `serviceCheck.name` + + Le nom descriptif du contrôle de service en cours d'exécution. +
+ `serviceCheck.serviceOutput` + + La partie du message analysée par Nagios comme `$SERVICEOUTPUT$`. Activé uniquement si `parse_output` est défini. +
+ `serviceCheck.status` + + Le [code de retour](https://nagios-plugins.org/doc/guidelines.html#AEN78) du contrôle de service. Options : + + * `0` = D'accord + * `1` = Attention + * `2` = Critique + * `3` = Inconnu +
+ `*` + + Toutes les métriques supplémentaires définies et signalées par le contrôle de service. Activé uniquement si `parse_output` est défini. +
+ +## Dépannage + +Conseils de dépannage : + + + + L'erreur suivante apparaît dans le [fichier de log](/docs/infrastructure/new-relic-infrastructure/troubleshooting/generate-logs-troubleshooting-infrastructure): + + ``` + Config parsing failed: service checks file permissions are not restrictive enough. Required file permissions are 0600. See documentation for details + ``` + + ### Solution: + + Définissez l’indicateur d’autorisations utilisateur sur `0600`, limitant les privilèges de lecture et d’écriture au propriétaire du fichier. + + ### Cause: + + Si le fichier n'appartient pas à l'utilisateur racine ou si le fichier peut être écrit par un utilisateur autre que l'utilisateur racine, l'intégration permettra à l'utilisateur d'exécuter des commandes arbitraires comme s'il était un utilisateur racine. Si les autorisations ne répondent pas aux exigences, une erreur sera enregistrée et l'intégration échouera. + + + +## Vérifiez le code source [#source-code] + +Cette intégration est un logiciel open source. Cela signifie que vous pouvez [parcourir son code source](https://github.com/newrelic/nri-nagios) et envoyer des améliorations, ou créer votre propre fork et le construire. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nextcloud-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nextcloud-integration.mdx new file mode 100644 index 00000000000..b024fed48fa --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nextcloud-integration.mdx @@ -0,0 +1,118 @@ +--- +title: Intégration de Nextcloud +tags: + - Nextcloud integration + - New Relic integrations +metaDescription: Install our Nextcloud dashboards and see your Nextcloud performance data in New Relic. +freshnessValidatedDate: never +translationType: machine +--- + +Avec notre dashboard Nextcloud, vous pouvez facilement suivre le nombre de fichiers dans votre système, vos comptes utilisateurs et la taille de votre base de données. Construit avec notre agent infrastructure et l'intégration Prometheus OpenMetrics, l'intégration Nextcloud vous offre un ensemble de par défaut qui vous permettent de visualiser vos critiques les plus détaillées en un seul endroit. + + + +
+ Après avoir configuré l'intégration Nextcloud avec New Relic, vos données s'affichent dans le dashboard comme celles-ci dès la sortie de la boîte. +
+ +Suivez les étapes suivantes pour installer l’intégration : + + + + ## Installer l' agent d'infrastructure [#infra] + + Pour utiliser l’intégration Nextcloud, vous devez d’abord [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L'agent infrastructure monitore l'hôte lui-même, tandis que l'intégration que vous installerez à l'étape suivante étend votre monitoring avec des données spécifiques à Nexcloud. + + + + ## Configurer NRI-Flex pour Nextcloud [#integrate] + + Notre intégration flexible est fournie avec l'agent New Relic Infrastructure et est utilisée pour envoyer vos données Nextcloud à New Relic. Pour créer un fichier de configuration flexible, suivez ces étapes : + + 1. Créez un fichier nommé `nri-flex-nextcloud.yml` dans `/etc/newrelic-infra/integrations.d` + + 2. Utilisez notre [modèle de configuration](https://github.com/newrelic/nri-flex/blob/master/examples/json-read-cmd-example.yml) pour mettre à jour les champs `YOUR_EVENT_TYPE` et `YOUR_HOST_IP` dans le fichier nommé `nri-flex-nextcloud.yml`. La valeur sur `event_type` est utilisée pour stocker les métriques dans la NRDB. Par exemple, vous pouvez mettre à jour `EVENT_TYPE` pour `NextcloudFlexMetrics` + + Votre fichier `nri-flex-nextcloud.yml` devrait ressembler à ceci : + + ```yml + integrations: + - name: nri-flex + config: + name: nextcloudFlex + global: + base_url: http://YOUR_HOST_IP/ocs/v2.php/apps/serverinfo/api/v1/ + user: nextcloud_username + pass: nextcloud_password + apis: + - event_type: YOUR_EVENT_TYPE + url: info?format=json + ``` + + Les métriques pour Nextcloud sont disponibles à l'URL suivante : `http://YOUR_HOST_IP/ocs/v2.php/apps/serverinfo/api/v1/info?format=json` + + + + ## Transfert le log Nextcloud vers New Relic + + Vous pouvez utiliser [le transfert de log](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/) pour transférer le log Nextcloud vers New Relic : + + 1. Créer un fichier de log nommé `logging.yml` dans `/etc/newrelic-infra/logging.d/` + + 2. Ajoutez le script suivant au fichier `logging.yml` : + + ```yml + logs: + - name: nextcloud.log + file: /var/www/nextcloud/data/nextcloud.log + attributes: + logtype: nextcloud_log + ``` + + + + ## Redémarrez l'agent New Relic Infrastructure + + Avant de pouvoir commencer à utiliser vos données, [redémarrez votre agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/). + + La commande suivante devrait fonctionner pour la plupart des systèmes : + + ```shell + sudo systemctl restart newrelic-infra.service + ``` + + + + ## Trouvez vos données + + Vous pouvez choisir notre modèle dashboard prédéfini nommé `Nextcloud` pour monitorer les métriques de votre serveur Nextcloud. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com), aller à la page **+ Integrations & Agents** . + 2. Cliquez sur **Dashboards**. + 3. Dans la barre de recherche, tapez `Nextcloud`. + 4. Le dashboard Nextcloud devrait apparaître. Cliquez dessus pour l'installer. + + Votre dashboard Nextcloud est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l'utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + Voici un exemple de requête NRQL vérifiant le nombre d'utilisateurs actifs au cours des 5 dernières minutes : + + ```sql + FROM NextcloudFlexMetrics SELECT latest(ocs.data.activeUsers.last5minutes) + ``` + + Voici un exemple de requête NRQL vérifiant le nombre d'utilisateurs actifs au cours des dernières 24 heures : + + ```sql + FROM NextcloudFlexMetrics SELECT latest(ocs.data.activeUsers.last24hours) + ``` + + + +## Quelle est la prochaine étape ? + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards : + +* Lisez notre [introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* Lisez notre [introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* Découvrez comment gérer votre pour ajuster [dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) votre mode d'affichage ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nfs-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nfs-monitoring-integration.mdx new file mode 100644 index 00000000000..55d9a7d48e9 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nfs-monitoring-integration.mdx @@ -0,0 +1,646 @@ +--- +title: Intégration monitoring NFS +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: 'New Relic''s Network File System (NFS) integration: how to enable, configure it, and an explanation of what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +Notre [intégration](/docs/integrations/host-integrations/getting-started/introduction-host-integrations) NFS collecte et envoie l'inventaire et les métriques de votre service NFS à notre plateforme, où vous pouvez voir les données d'utilisation du disque afin que vous puissiez trouver plus facilement la source de tout problème. + +Suivez les étapes suivantes pour configurer l’intégration NFS : + + + + ## Vérifier la compatibilité et les exigences [#req] + + Notre intégration est compatible avec NFS version 3 et supérieure. + + + + ## Installer l' agent d'infrastructure + + Pour utiliser l’intégration NFS, vous devez d’abord [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. + + + + ## Installer et activer [#install] + + L'intégration NFS est déjà activée et installée par défaut avec l'agent d'infrastructure. Il n'y a aucune exigence d'installation ou d'activation, car il fonctionne immédiatement. + + + + ## Rechercher et utiliser des données [#find-and-use] + + Pour trouver vos données d’intégration : + + 1. Aller à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > Third-party services** + 2. Rechercher **NFS integration**. + 3. Cliquez sur le dashboard NFS. + + Lors de [l'interrogation de vos données](/docs/using-new-relic/data/understand-data/query-new-relic-data), les données NFS sont attachées au [type d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data) `NFSSample` . + + Pour en savoir plus sur la recherche et l’utilisation de vos données, consultez [Comprendre et utiliser les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + + + +## données métriques [#metrics] + +L'intégration NFS collecte les métriques suivantes : + +### Métriques par défaut + +Ces métriques sont capturées par défaut : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `diskTotalBytes` + + Nombre total d'octets disponibles sur le disque. +
+ `diskUsedBytes` + + Nombre total d'octets utilisés. +
+ `diskUsedPercent` + + Pourcentage d'octets utilisés. +
+ `diskFreeBytes` + + Nombre total d'octets disponibles restant sur le disque. +
+ `diskFreePercent` + + Pourcentage d'espace libre disponible sur le disque. +
+ `totalReadBytes` + + Nombre total d'octets lus. +
+ `totalWriteBytes` + + Nombre total d'octets écrits. +
+ `readBytesPerSecond` + + Nombre d'octets lus par seconde. +
+ `writeBytesPerSecond` + + Nombre d'octets écrits par seconde. +
+ `readsPerSecond` + + Nombre d'opérations de lecture par seconde. +
+ `writesPerSecond` + + Nombre d'opérations d'écriture par seconde. +
+ `totalOpsPerSecond` + + Nombre total d'opérations par seconde. +
+ `version` + + Version NFS (sera soit 3.0 ou 4.0). +
+ `device` + + Nom de l'appareil. +
+ `mountPoint` + + Point de montage du volume NFS. +
+ `filesystemType` + + Type de système de fichiers. +
+ +### Métriques étendues [#extended] + +Métriques supplémentaires capturées lorsque `detailed_nfs` est activé (défini sur `true` dans le infrastructure [configuration fichier](/docs/infrastructure/install-configure-manage-infrastructure/configuration/infrastructure-configuration-settings#detailed_nfs)) : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `ageSeconds` + + Âge en secondes du client NFS. +
+ `inodeRevalidate` + + Nombre de fois que les attributs d'inode mis en cache sont revalidés à partir du serveur. +
+ `dnodeRevalidate` + + Nombre de fois que les nœuds d'entrée mis en cache sont revalidés à partir du serveur. +
+ `dataInvalidate` + + Nombre de fois qu'un cache d'inode est vidé. +
+ `attributeInvalidate` + + Nombre de fois où les attributs d'inode mis en cache sont invalidés. +
+ `vfsOpen` + + Nombre de fois que des fichiers ou des répertoires ont été `open()` 'd. +
+ `vfsLookUp` + + Nombre de fois qu'une recherche dans un répertoire a eu lieu. +
+ `vfsAccess` + + Nombre de fois où les autorisations ont été vérifiées. +
+ `vfsUpdatePage` + + Nombre de mises à jour (et d'écritures potentielles) sur les pages. +
+ `vfsReadPage` + + Nombre de pages lues directement via les fichiers `mmap()`. +
+ `vfsReadPages` + + Nombre de fois qu'un groupe de pages a été lu. +
+ `vfsWritePage` + + Nombre de pages écrites directement via les fichiers `mmap()`. +
+ `vfsWritePages` + + Nombre de fois qu'un groupe de pages a été écrit. +
+ `vfsGetDents` + + Nombre de fois que les entrées du répertoire ont été lues avec `getdents()`. +
+ `vfsSetattr` + + Nombre de fois où l'attribut a été défini sur les inodes. +
+ `vfsFlush` + + Nombre d'écritures en attente qui ont été vidées de force sur le serveur. +
+ `vfsFsync` + + Nombre de fois que `fsync()` a été appelé sur des répertoires et des fichiers. +
+ `vfsLock` + + Nombre de fois que le verrouillage d'un fichier a été tenté. +
+ `vfsFileRelease` + + Nombre de fois où les fichiers ont été fermés et sortis. +
+ `truncation` + + Nombre de fois où les fichiers ont été tronqués. +
+ `writeExtension` + + Nombre de fois qu'un fichier a été agrandi en raison d'écritures au-delà de sa fin existante. +
+ `sillyRename` + + Nombre de fois qu'un fichier a été supprimé alors qu'il était encore ouvert par un autre processus. +
+ `shortRead` + + Nombre de fois où le serveur NFS a donné moins de données que prévu lors de la lecture. +
+ `shortWrite` + + Nombre de fois où le serveur NFS a écrit moins de données que prévu lors de l'écriture. +
+ `jukeboxDelay` + + Nombre de fois où le serveur NFS a indiqué `EJUKEBOX`; récupération des données à partir du stockage hors ligne. +
+ `pnfsRead` + + Nombre de lectures pNFS NFS v4.1+. +
+ `pnfsWrite` + + Nombre d'écritures pNFS NFS v4.1+. +
+ `bind` + + Nombre de fois où le client a dû établir une connexion à partir de zéro au serveur NFS. +
+ `connect` + + Nombre de fois que le client a établi une connexion TCP au serveur NFS. +
+ `connectIdleTime` + + Durée (en jiffies, une unité de temps interne au noyau) pendant laquelle le montage NFS a attendu que les connexions au serveur soient établies. +
+ `idleTimeSeconds` + + Durée depuis laquelle le montage NFS a vu pour la dernière fois du trafic RPC. +
+ `send` + + Nombre de requests RPC pour ce montage envoyées au serveur NFS. +
+ `receive` + + Nombre de réponses RPC pour ce montage reçues du serveur NFS. +
+ `badTransactionIds` + + Nombre de fois où le serveur NFS a envoyé une réponse avec un ID de transaction inconnu de ce client. +
+ `cumulativeActiveRequest` + + Un compteur en cours d'exécution, incrémenté à chaque demande en fonction de la différence actuelle entre les envois et les réceptions. +
+ `cumulativeBacklog` + + Un compteur en cours d'exécution, incrémenté à chaque demande par la taille actuelle de la file d'attente. +
+ `maximumRPCSlotsUsed` + + Nombre maximal de requests RPC actives simultanément jamais utilisées. +
+ `cumulativeSendingQueue` + + Un compteur en cours d'exécution, incrémenté à chaque demande en fonction de la taille actuelle de la file d'attente d'envoi. +
+ `cumulativePendingQueue` + + Un compteur en cours d'exécution, incrémenté à chaque demande en fonction de la taille actuelle de la file d'attente en attente. +
+ +## Désactiver l'intégration [#disable] + +Définissez `metrics_nfs_sample_rate` sur `-1` dans le [fichier de configuration](/docs/infrastructure/install-infrastructure-agent/configuration/infrastructure-agent-configuration-settings/#metrics-nfs-sample-rate) de l’agent d’infrastructure pour éviter de récupérer les métriques NFS. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nvidia-dcgm-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nvidia-dcgm-integration.mdx new file mode 100644 index 00000000000..0912f54f440 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nvidia-dcgm-integration.mdx @@ -0,0 +1,129 @@ +--- +title: Intégration de NVIDIA DCGM +tags: + - NVIDIA integration + - DCGM integration + - New Relic integrations +metaDescription: Use New Relic infrastructure agent to get a dashboard with DCGM metrics. +freshnessValidatedDate: '2023-10-30T00:00:00.000Z' +translationType: machine +--- + +Notre intégration NVIDIA DCGM vous aide à monitoring l'état des GPU. Cette intégration s'appuie sur notre agent d'infrastructure et sur l'intégration d'écriture à distance Prometheus, qui est parfaitement intégrée à l'utilitaire SMI de NVIDIA. Il vous fournit un dashboard prédéfini contenant des mesures DCGM cruciales, notamment l'utilisation du GPU, le nombre d'erreurs XID, les états d'horloge et de performances, la température et la consommation d'énergie. + +NVIDIA DCGM dashboard + +
+ Après avoir configuré notre intégration NVIDIA DCGM, nous vous fournissons un dashboard pour vos métriques DCGM. +
+ +## Installer l' agent d'infrastructure [#infra] + +Pour intégrer des données dans New Relic, installez notre agent d'infrastructure. Notre agent d'infrastructure collecte et ingère des données afin que vous puissiez suivre les performances de votre DCGM. + +Vous pouvez installer l' agent d'infrastructure de deux manières différentes : + +* Notre [guide d'installation](https://one.newrelic.com/nr1-core?state=4f81feab-35f7-e97e-9903-52510f8542bd) est un outil CLI qui inspecte votre système et installe agent l' d'infrastructure aux côtés de l'monitoring d'applicationqui agent fonctionne le mieux pour votre système. Pour en savoir plus sur le fonctionnement de notre guide d'installation, consultez notre [aperçu du guide d'installation](/docs/infrastructure/host-integrations/installation/new-relic-guided-install-overview). +* Si vous préférez installer notre agent d'infrastructure manuellement, vous pouvez suivre un tutoriel d'installation manuelle pour [Linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux), [Windows](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows/). + +## Configurer l'exportateur DCGM [#configure-exporter] + +1. Dans votre terminal, clonez le référentiel `dcgm-exporter` : + + ```shell + git clone https://github.com/NVIDIA/dcgm-exporter + ``` + +2. Dans le référentiel cloné, accédez au répertoire `dcgm-exporter` : + + ```shell + cd dcgm-exporter + ``` + +3. Installer les binaires nécessaires : + + ```shell + make binary + ``` + + ```shell + sudo make install + ``` + +4. Démarrer le `dcgm-exporter`: + + ```shell + dcgm-exporter & + ``` + +5. Consultez les détails de vos métriques DCGM : + + ```shell + curl localhost:9400/metrics + ``` + +## configuration NVIDIA-DCGM sur Prometheus [#configure-prometheus] + +Prometheus est un outil de monitoring et d'alerte open source qui peut être utilisé pour monitorer les GPU NVIDIA à l'aide de l'exportateur NVIDIA-DCGM. Pour configurer Prometheus pour monitorer les métriques DCGM, suivez ces étapes : + +1. Visitez la [page de téléchargementPrometheus ](https://prometheus.io/download/)pour trouver la dernière sortie. +2. Sélectionnez la version appropriée à votre système d'exploitation et à votre architecture. Pour Linux, vous choisirez probablement la version linux-amd64. Copiez le lien de téléchargement du fichier tarball (fichier `.tar.gz` ). +3. Une fois Prometheus téléchargé, décompressez le fichier tar téléchargé : + ```shell + tar -xvzf + ``` +4. Accédez au dossier Prometheus téléchargé : + ```shell + cd /DOWNLOADED-FOLDER/ + ``` +5. Ouvrez votre fichier `prometheus.yml` et ajoutez les lignes suivantes : + ```yml + --- + scrape_configs: + - job_name: NVIDI + static_configs: + - targets:['localhost:9400'] + ``` +6. Démarrer Prometheus: + ```shell + ./prometheus --config.file=prometheus.yml + ``` + +## Installer l'agent d'écriture à distance Prometheus pour NVIDIA-DCGM [#install-remote-write] + +Après avoir Prometheus configuration, vous devez envoyer les métriques NVIDIA DCGM à Prometheus. Plus tard, pour intégrer les métriques Prometheus à New Relic, vous pouvez exploiter l’agent d’écriture à distance Prometheus. Suivez simplement le [lanceur de configuration d’écriture à distancePrometheus dans l’ UI](https://one.newrelic.com/catalog-pack-details?state=04de330d-ad8b-b61c-68e2-ad852c2ca1d4). + +## Redémarrez l'agent New Relic Infrastructure [#restart-infra-agent] + +Avant de pouvoir commencer à lire vos données, utilisez les instructions de notre [documentation suragent d'infrastructure ](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/)pour redémarrer votre agent d'infrastructure. + +```shell +sudo systemctl restart newrelic-infra.service +``` + +## Consultez vos métriques DCGM dans New Relic [#view-data] + +Une fois la configuration ci-dessus terminée, vous pouvez afficher vos métriques à l'aide de notre modèle dashboard prédéfini nommé nvidia-dcgm. Pour accéder à ce dashboard: + +1. Allez à **[one.newrelic.com](https://one.newrelic.com/) > + Integrations & Agents**. +2. Cliquez sur l'onglet **Dashboards** . +3. Dans le champ de recherche, tapez "nvidia-dcgm". +4. Sélectionnez-le et cliquez sur **Install**. + +Pour intrumenter le quickstart `nvidia-dcgm` et voir les métriques et les alertes, vous pouvez également suivre notre [page quickstart Nvidia-DCGM](https://newrelic.com/instant-observability/nvidia-dcgm) en cliquant sur le bouton **Install now** . + +Voici quelques exemples de requêtes : + +**Example:** afficher le décompte de la température du GPU de l'appareil + +```sql +SELECT latest(DCGM_FI_DEV_GPU_TEMP) FROM Metric WHERE metricName LIKE 'DCGM_FI_DEV_GPU_TEMP' TIMESERIES +``` + +## Quelle est la prochaine étape ? [#whats-next] + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nvidia-gpu-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nvidia-gpu-integration.mdx new file mode 100644 index 00000000000..a7c48325667 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nvidia-gpu-integration.mdx @@ -0,0 +1,156 @@ +--- +title: Intégration du GPU NVIDIA +tags: + - NVIDIA integration + - GPU integration + - New Relic integrations +metaDescription: Use New Relic infrastructure agent to get a dashboard with GPU metrics. +freshnessValidatedDate: '2023-08-10T00:00:00.000Z' +translationType: machine +--- + +Notre intégration GPU NVIDIA vous permet de monitorer l'état de vos GPU. Cette intégration utilise notre agent d'infrastructure avec l'intégration Flex, qui nous permet d'accéder à l'utilitaire SMI de NVIDIA. + +NVIDIA GPUs dashboard + +
+ Après avoir configuré notre intégration GPU NVIDIA, nous vous fournissons un dashboard pour vos métriques GPU. +
+ +Lors de l'installation, vous obtiendrez un dashboard prédéfini contenant des mesures GPU cruciales : + +* Utilisation du GPU +* Nombre d'erreurs ECC +* Processus de calcul actifs +* États d'horloge et de performances +* Température et vitesse du ventilateur +* Informations dynamiques et statiques sur chaque périphérique pris en charge + + + + ## Installer l' agent d'infrastructure + + Pour capturer des données avec New Relic, installez notre agent d'infrastructure. Notre agent d'infrastructure collecte et ingère des données afin que vous puissiez suivre les performances de vos GPU. + + Vous pouvez installer l' agent d'infrastructure de deux manières différentes : + + * Notre [guide d'installation](https://one.newrelic.com/nr1-core?state=4f81feab-35f7-e97e-9903-52510f8542bd) est un outil CLI qui inspecte votre système et installe agent l' d'infrastructure aux côtés de l'monitoring d'applicationqui agent fonctionne le mieux pour votre système. Pour en savoir plus sur le fonctionnement de notre guide d'installation, consultez notre [aperçu du guide d'installation](/docs/infrastructure/host-integrations/installation/new-relic-guided-install-overview). + * Si vous préférez installer notre agent d'infrastructure manuellement, vous pouvez suivre un tutoriel d'installation manuelle pour [Linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux), [Windows](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows/). + + + + ## Configurer l'intégration Flex pour les GPU NVIDIA + + Flex est fourni avec l'agent New Relic Infrastructure et peut être intégré à [NVIDIA SMI](https://developer.nvidia.com/nvidia-management-library-nvml), un utilitaire de ligne de commande permettant de monitorer les périphériques GPU NVIDIA. + + + nvidia-smi est livré préinstallé avec les pilotes d'affichage GPU NVIDIA sur Linux et Windows Server. + + + Suivez ces étapes pour configurer Flex : + + 1. Créez un fichier nommé `nvidia-smi-gpu-monitoring.yml` dans ce chemin : + + ```shell + sudo touch /etc/newrelic-infra/integrations.d/nvidia-smi-gpu-monitoring.yml + ``` + + Vous pouvez également télécharger depuis le [référentiel git](https://github.com/newrelic/nri-flex/blob/master/examples/nvidia-smi-gpu-monitoring.yml). + + 2. Mettre à jour le fichier `nvidia-smi-gpu-monitoring.yml` avec la configuration d'intégration : + + ```yml + --- + integrations: + - name: nri-flex + # interval: 30s + config: + name: NvidiaSMI + variable_store: + metrics: + "name,driver_version,count,serial,pci.bus_id,pci.domain,pci.bus,\ + pci.device_id,pci.sub_device_id,pcie.link.gen.current,pcie.link.gen.max,\ + pcie.link.width.current,pcie.link.width.max,index,display_mode,display_active,\ + persistence_mode,accounting.mode,accounting.buffer_size,driver_model.current,\ + driver_model.pending,vbios_version,inforom.img,inforom.oem,inforom.ecc,inforom.pwr,\ + gom.current,gom.pending,fan.speed,pstate,clocks_throttle_reasons.supported,\ + clocks_throttle_reasons.gpu_idle,clocks_throttle_reasons.applications_clocks_setting,\ + clocks_throttle_reasons.sw_power_cap,clocks_throttle_reasons.hw_slowdown,clocks_throttle_reasons.hw_thermal_slowdown,\ + clocks_throttle_reasons.hw_power_brake_slowdown,clocks_throttle_reasons.sw_thermal_slowdown,\ + clocks_throttle_reasons.sync_boost,memory.total,memory.used,memory.free,compute_mode,\ + utilization.gpu,utilization.memory,encoder.stats.sessionCount,encoder.stats.averageFps,\ + encoder.stats.averageLatency,ecc.mode.current,ecc.mode.pending,ecc.errors.corrected.volatile.device_memory,\ + ecc.errors.corrected.volatile.dram,ecc.errors.corrected.volatile.register_file,ecc.errors.corrected.volatile.l1_cache,\ + ecc.errors.corrected.volatile.l2_cache,ecc.errors.corrected.volatile.texture_memory,ecc.errors.corrected.volatile.cbu,\ + ecc.errors.corrected.volatile.sram,ecc.errors.corrected.volatile.total,ecc.errors.corrected.aggregate.device_memory,\ + ecc.errors.corrected.aggregate.dram,ecc.errors.corrected.aggregate.register_file,ecc.errors.corrected.aggregate.l1_cache,\ + ecc.errors.corrected.aggregate.l2_cache,ecc.errors.corrected.aggregate.texture_memory,ecc.errors.corrected.aggregate.cbu,\ + ecc.errors.corrected.aggregate.sram,ecc.errors.corrected.aggregate.total,ecc.errors.uncorrected.volatile.device_memory,\ + ecc.errors.uncorrected.volatile.dram,ecc.errors.uncorrected.volatile.register_file,ecc.errors.uncorrected.volatile.l1_cache,\ + ecc.errors.uncorrected.volatile.l2_cache,ecc.errors.uncorrected.volatile.texture_memory,ecc.errors.uncorrected.volatile.cbu,\ + ecc.errors.uncorrected.volatile.sram,ecc.errors.uncorrected.volatile.total,ecc.errors.uncorrected.aggregate.device_memory,\ + ecc.errors.uncorrected.aggregate.dram,ecc.errors.uncorrected.aggregate.register_file,ecc.errors.uncorrected.aggregate.l1_cache,\ + ecc.errors.uncorrected.aggregate.l2_cache,ecc.errors.uncorrected.aggregate.texture_memory,ecc.errors.uncorrected.aggregate.cbu,\ + ecc.errors.uncorrected.aggregate.sram,ecc.errors.uncorrected.aggregate.total,retired_pages.single_bit_ecc.count,\ + retired_pages.double_bit.count,retired_pages.pending,temperature.gpu,temperature.memory,power.management,power.draw,\ + power.limit,enforced.power.limit,power.default_limit,power.min_limit,power.max_limit,clocks.current.graphics,clocks.current.sm,\ + clocks.current.memory,clocks.current.video,clocks.applications.graphics,clocks.applications.memory,\ + clocks.default_applications.graphics,clocks.default_applications.memory,clocks.max.graphics,clocks.max.sm,clocks.max.memory,\ + mig.mode.current,mig.mode.pending" + apis: + - name: NvidiaGpu + commands: + - run: nvidia-smi --query-gpu=${var:metrics} --format=csv # update this if you have an alternate path + output: csv + rename_keys: + " ": "" + "\\[MiB\\]": ".MiB" + "\\[%\\]": ".percent" + "\\[W\\]": ".watts" + "\\[MHz\\]": ".MHz" + value_parser: + "clocks|power|fan|memory|temp|util|ecc|stats|gom|mig|count|pcie": '\d*\.?\d+' + '.': '\[N\/A\]|N\/A|Not Active|Disabled|Enabled|Default' + ``` + + + + ## Confirmer que les métriques GPU sont ingérées + + La configuration Flex sera automatiquement détectée et exécutée par l'agent d'infrastructure, il n'est pas nécessaire de redémarrer l'agent. Vous pouvez confirmer que les métriques sont ingérées en exécutant cette requête NRQL : + + ```sql + SELECT * FROM NvidiaGpuSample + ``` + + + + ## Monitorer votre application + + Vous pouvez utiliser notre modèle dashboard prédéfini pour monitorer vos métriques GPU. Suivez ces étapes : + + 1. Allez à **[one.newrelic.com](https://one.newrelic.com/)** et cliquez sur **Dashboards**. + 2. Cliquez sur l'onglet **Import dashboard** . + 3. Copiez le contenu du fichier (`.json`) depuis le [dashboard du GPU NVIDIA](https://raw.githubusercontent.com/newrelic/nri-flex/master/examples/nvidia-smi-gpu-monitoring-dashboard.json). + 4. Sélectionnez le compte cible où le dashboard doit être importé. + 5. Cliquez sur **Import dashboard** pour confirmer l'action. + + Votre dashboard `NVIDIA GPU Monitoring` est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l'utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + Voici une requête NRQL pour afficher toute la télémétrie disponible : + + ```sql + SELECT * FROM NvidiaGpuSample + ``` + + + +## Quelle est la prochaine étape ? [#next] + +Vous pouvez adapter la configuration Flex pour inclure ou exclure des informations disponibles à partir de l'utilitaire NVIDIA SMI. + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nvidia-jetson-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nvidia-jetson-integration.mdx new file mode 100644 index 00000000000..7345cda05ad --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nvidia-jetson-integration.mdx @@ -0,0 +1,182 @@ +--- +title: Intégration de NVIDIA Jetson +tags: + - New Relic integrations + - NVIDIA Jetson integration +metaDescription: Use New Relic infrastructure agent to get a dashboard with metrics from your NVIDIA Jetson. +freshnessValidatedDate: '2024-06-18T00:00:00.000Z' +translationType: machine +--- + +Notre intégration NVIDIA Jetson collecte et envoie des données sur votre utilitaire tegrastats à New Relic, où vous pouvez monitorer les lectures du CPU, du GPU, de la RAM et de la température de votre appareil NVIDIA Jetson. + +NVIDIA Jetson dashboard + +
+ Après avoir configuré notre intégration NVIDIA Jetson, nous vous fournissons un dashboard pour vos métriques NVIDIA Jetson. +
+ +## Installer l'intégration NVIDIA Jetson [#install-jetson] + +Suivez ces étapes pour collecter des données sur votre appareil NVIDIA Jetson : + + + + ### Installer l' agent d'infrastructure [#infra-install] + + Pour utiliser l’intégration NVIDIA Jetson, vous devez d’abord [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur votre hôte. L'agent infrastructure monitore l'hôte lui-même, tandis que l'intégration elle-même étend votre monitoring pour inclure les données spécifiques à NVIDIA Jetson. + + + + ### Enregistrer les tegrastats dans un fichier [#save-tegrastats] + + Depuis votre environnement shell, accédez au répertoire tegrastats et exécutez cette commande pour enregistrer les métriques NVIDIA Jetson à des intervalles de 5 secondes : + + ```shell + sudo tegrastats --interval 5000 --logfile tegrastats + ``` + + + + ### Activer l'intégration de NVIDIA Jetson avec nri-flex [#enable-jetson] + + Pour configurer l’intégration NVIDIA Jetson, suivez ces étapes : + + 1. Créez un fichier nommé `nvidia-jetson-config.yml` et enregistrez-le dans le répertoire d'intégration : + + ```shell + sudo nano /etc/newrelic-infra/integrations.d/nvidia-jetson-config.yml + ``` + + 2. Permettez à l'agent de capturer des données à partir de NVIDIA Jetson en ajoutant le snippet suivant à votre fichier `nvidia-jetson-config.yml` : + + ```yml + integrations: + - name: nri-flex + config: + name: JetsonMetrics + apis: + - event_type: jetsonTegrastats + commands: + - run: tail -n 3 path/to/tegrastats + split: horizontal + set_header: [ram_used, ram_total] + regex_match: true + split_by: "RAM (\\d+)/(\\d+)" + - run: tail -n 3 path/to/tegrastats + split: horizontal + set_header: [lfb_num, lfb_size] + regex_match: true + split_by: "\\(lfb (\\d+)x(\\d+)MB\\)" + - run: tail -n 3 path/to/tegrastats + split: horizontal + set_header: [swap_used, swap_total, swap_cached] + regex_match: true + split_by: "SWAP (\\d+)/(\\d+) \\(cached (\\d+)MB\\)" + - run: tail -n 3 path/to/tegrastats + split: horizontal + set_header: [iram_used, iram_total, lfb_block] + regex_match: true + split_by: "IRAM (\\d+)/(\\d+)kB\\(lfb (\\d+)kB\\)" + - run: tail -n 3 path/to/tegrastats + split: horizontal + set_header: [cpu1_usage, cpu1_freq] + regex_match: true + split_by: "CPU \\[(\\d+)%@(\\d+)" + - run: tail -n 3 path/to/tegrastats + split: horizontal + set_header: [cpu2_usage, cpu2_freq] + regex_match: true + split_by: ",(\\d+)%@(\\d+)" + - run: tail -n 3 path/to/tegrastats + split: horizontal + set_header: [cpu3_usage, cpu3_freq] + regex_match: true + split_by: ",(\\d+)%@(\\d+)" + - run: tail -n 3 path/to/tegrastats + split: horizontal + set_header: [cpu4_usage, cpu4_freq] + regex_match: true + split_by: ",(\\d+)%@(\\d+)\\]" + - run: tail -n 3 path/to/tegrastats + split: horizontal + set_header: [emc_freq_pct, emc_freq_val] + regex_match: true + split_by: "EMC_FREQ (\\d+)%@(\\d+)" + - run: tail -n 3 path/to/tegrastats + split: horizontal + set_header: [gr3d_freq_pct, gr3d_freq_val, ape, pll_temp] + regex_match: true + split_by: "GR3D_FREQ (\\d+)%@(\\d+) APE (\\d+) PLL@(\\d+)C" + - run: tail -n 3 path/to/tegrastats + split: horizontal + set_header: [cpu_temp, pmic_temp, gpu_temp] + regex_match: true + split_by: "CPU@(\\d+\\.?\\d*)C? PMIC@(\\d+\\.?\\d*)C? GPU@(\\d+\\.?\\d*)C?" + - run: tail -n 3 path/to/tegrastats + split: horizontal + set_header: [ao_temp, thermal_temp] + regex_match: true + split_by: "AO@(\\d+\\.?\\d*)C? thermal@(\\d+\\.?\\d*)C?" + - run: tail -n 3 path/to/tegrastats + split: horizontal + set_header: [pom_in_currect, pom_in_peak] + regex_match: true + split_by: "POM_5V_IN (\\d+)/(\\d+)" + - run: tail -n 3 path/to/tegrastats + split: horizontal + set_header: [pom_gpu_used, pom_gpu_total] + regex_match: true + split_by: "POM_5V_GPU (\\d+)/(\\d+)" + - run: tail -n 3 path/to/tegrastats + split: horizontal + set_header: [pom_cpu_used, pom_cpu_total] + regex_match: true + split_by: "POM_5V_CPU (\\d+)/(\\d+)" + ``` + + + + ### Redémarrez l'agent New Relic Infrastructure [#restart-agent] + + Redémarrez votre agent d’infrastructure en exécutant cette commande dans votre environnement shell : + + ```shell + sudo systemctl restart newrelic-infra.service + ``` + + Attendez quelques minutes pendant que votre application envoie des métriques à [one.newrelic.com](https://one.newrelic.com). + + + + ### Trouvez vos données [#find-data] + + Vous pouvez utiliser notre modèle dashboard prédéfini pour monitorer vos données NVIDIA Jetson. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com), allez à la page **+ Integrations & Agents** , puis cliquez sur **Dashboards** + 2. Recherchez NVIDIA Jetson dans la barre de recherche, puis sélectionnez NVIDIA Jetson pour installer le dashboard. + 3. Consultez votre dashboard en allant sur **[one.newrelic.com](https://one.newrelic.com) > All Capabilities > Dashboards**. + + Pour obtenir des documents sur l'utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + + +## Interrogez vos données avec NRQL [#query-nrqll] + +Avec les données de rapport NVIDIA Jetson, vous pouvez également créer une requête pour en savoir plus sur les performances de votre appareil : + +1. Depuis n'importe quelle page de **[one.newrelic.com](https://one.newrelic.com)**, Cliquez sur **Query your data** en bas de votre navigateur. + +2. Construisez votre requête. Par exemple, voici un exemple de requête NRQL pour afficher la température du GPU : + + ```sql + SELECT latest(gpu_temp) as 'GPU temperature (C)' from jetsonTegrastats + ``` + +## Quelle est la prochaine étape ? [#whats-next] + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage du dashboard ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nvidia-triton-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nvidia-triton-integration.mdx new file mode 100644 index 00000000000..49be91bf789 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nvidia-triton-integration.mdx @@ -0,0 +1,174 @@ +--- +title: Intégration de NVIDIA Triton +tags: + - New Relic integrations + - NVIDIA Triton integration +metaDescription: Use New Relic infrastructure agent to get a dashboard with metrics from your NVIDIA Triton. +freshnessValidatedDate: '2024-04-19T00:00:00.000Z' +translationType: machine +--- + +Notre intégration NVIDIA Triton monitore le déploiement et la gestion du modèle d'IA dans l'environnement de production. Triton fournit une solution flexible et évolutive pour déployer des modèles d'apprentissage profond, permettant aux organisations de déployer efficacement des applications d'IA sur une variété de plates-formes matérielles, y compris les GPU et les CPU. + +NVIDIA Triton dashboard + +
+ Après avoir configuré notre intégration NVIDIA Triton, nous vous fournissons un dashboard pour vos métriques NVIDIA Triton. +
+ + + + ## Installer l' agent d'infrastructure [#infra-install] + + Pour utiliser l’intégration NVIDIA Triton, vous devez également [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L'agent infrastructure monitore l'hôte lui-même, tandis que l'intégration que vous installerez à l'étape suivante étend votre monitoring avec des données spécifiques à NVIDIA Triton. + + + + ## Activer l'intégration NVIDIA Triton avec `nri-prometheus` [#enable-triton] + + Les métriques du serveur Triton sont affichées à l'URL `http://localhost:8002/metrics`. + + + Pour plus de détails sur la collecte des métriques du serveur Triton, veuillez vous référer à la [documentation NVIDIA](https://docs.nvidia.com/deeplearning/triton-inference-server/user-guide/docs/user_guide/metrics.html) + + + Pour configurer l’intégration NVIDIA Triton, suivez ces étapes : + + 1. Exécutez cette commande pour créer un fichier nommé `nri-prometheus-config.yml` dans le répertoire d'intégration : + + ```shell + touch /etc/newrelic-infra/integrations.d/nri-prometheus-config.yml + ``` + + 2. Ajoutez le snippet suivant à votre fichier `nri-prometheus-config.yml` pour permettre à l'agent de capturer les données NVIDIA Triton : + + ```yml + integrations: + - name: nri-prometheus + config: + # When standalone is set to false nri-prometheus requires an infrastructure agent to work and send data. Defaults to true + standalone: false + + # When running with infrastructure agent emitters will have to include infra-sdk + emitters: infra-sdk + + # The name of your cluster. It's important to match other New Relic products to relate the data. + cluster_name: "YOUR_DESIRED_CLUSTER_NAME" + + targets: + - description: NVIDIA Triton metrics list + urls: ["http://localhost:8002/metrics"] + + # tls_config: + # ca_file_path: "/etc/etcd/etcd-client-ca.crt" + # cert_file_path: "/etc/etcd/etcd-client.crt" + # key_file_path: "/etc/etcd/etcd-client.key" + + # Whether the integration should run in verbose mode or not. Defaults to false + verbose: false + + # Whether the integration should run in audit mode or not. Defaults to false. + # Audit mode logs the uncompressed data sent to New Relic. Use this to log all data sent. + # It does not include verbose mode. This can lead to a high log volume, use with care + audit: false + + # The HTTP client timeout when fetching data from endpoints. Defaults to 30s. + # scrape_timeout: "30s" + + # Length in time to distribute the scraping from the endpoints + scrape_duration: "5s" + + # Number of worker threads used for scraping targets. + # For large clusters with many (>400) endpoints, slowly increase until scrape + # time falls between the desired `scrape_duration`. + # Increasing this value too much will result in huge memory consumption if too + # many metrics are being scraped. + # Default: 4 + # worker_threads: 4 + + # Whether the integration should skip TLS verification or not. Defaults to false + insecure_skip_verify: true + timeout: 10s + ``` + + + + ## Configuration du log NVIDIA Triton [#nvidia-triton-logs-configuration] + + Pour configurer le log Nvidia Triton, suivez les étapes décrites ci-dessous. + + 1. Exécutez cette commande Docker pour vérifier l’état d’exécution du conteneur : + + ```shell + sudo docker ps + ``` + + 2. Copiez l'ID du conteneur **nvidia-triton** et exécutez cette commande : + + ```shell + sudo docker logs -f &> /tmp/triton.log & + ``` + + Vérifiez ensuite qu'il existe un fichier de log nommé `triton.log` situé dans le répertoire `/tmp/`. + + + + ## Transfert du log NVIDIA Triton vers New Relic [#nvidia-triton-logs-to-newrelic] + + Vous pouvez utiliser notre [transfert de log](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/) pour transférer le log NVIDIA Triton vers New Relic. Sur les machines Linux, votre fichier de log nommé `logging.yml` doit se trouver dans ce chemin : + + ```shell + cd /etc/newrelic-infra/logging.d/ + ``` + + Une fois que vous avez trouvé le fichier de log dans le chemin ci-dessus, incluez ce script dans le fichier `logging.yml` : + + ```yml + logs: + - name: triton.log + file: /tmp/triton.log + attributes: + logtype: triton_logs + ``` + + + + ## Redémarrez l'agent New Relic Infrastructure [#restart-agent] + + Exécutez cette commande pour [redémarrer votre agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent): + + ```shell + sudo systemctl restart newrelic-infra.service + ``` + + Dans quelques minutes, votre serveur NVIDIA Triton enverra des métriques à [one.newrelic.com](https://one.newrelic.com). + + + + ## Trouvez vos données [#find-data] + + Vous pouvez choisir notre modèle dashboard prédéfini nommé `NVIDIA Triton` pour monitorer les métriques de votre serveur NVIDIA Triton. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. Allez sur **[one.newrelic.com](https://one.newrelic.com) > Integrations & Agents** et tapez **NVIDIA Triton**. + 2. Sous **Dashboards**, cliquez sur **NVIDIA Triton**. + 3. Cliquez sur **Edit** si vous souhaitez modifier le compte dans la fenêtre contextuelle ouverte. + 4. Cliquez sur **Setup NVIDIA Triton** ou **Skip this step** si vous avez déjà configuré cette source de données. + 5. Cliquez sur **View dashboard** et consultez vos données NVIDIA Triton dans New Relic. + + Vous pouvez trouver votre dashboard NVIDIA Triton personnalisé dans l'UI **Dashboards**. Consultez notre section [dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour plus d'informations. + + Voici une [requête NRQL](/docs/nrql/get-started/introduction-nrql-new-relics-query-language/) pour vérifier la mémoire du processeur NVIDIA Triton : + + ```sql + SELECT latest(nv_cpu_memory_total_bytes) / 1e+6 AS 'memory (MB)' FROM Metric + ``` + + + +## Quelle est la prochaine étape ? + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage du dashboard ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nvml-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nvml-integration.mdx new file mode 100644 index 00000000000..3beb94dcf9c --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/nvml-integration.mdx @@ -0,0 +1,90 @@ +--- +title: Intégration NVML +tags: + - NVML integration + - New Relic integrations +metaDescription: Use New Relic infrastructure agent to get a dashboard with nvml metrics. +freshnessValidatedDate: never +translationType: machine +--- + +L'intégration de NVML avec New Relic fournit des informations précieuses détaillées sur l'utilisation du GPU et les mesures de performances de vos applications et de votre système, facilitant l'optimisation des ressources, l'identification des goulots d'étranglement des performances et le maintien de la stabilité et de l'efficacité globales de votre environnement. + +nvml dashboard + +
+ Après avoir configuré l'intégration NVML avec New Relic, visualisez vos données dans un dashboard dès la sortie de la boîte. +
+ +## Configurer l'intégration NVML + +Suivez les étapes suivantes pour configurer l’intégration NVML : + + + + ## Installer l' agent d'infrastructure + + Pour utiliser l’intégration NVML, vous devez d’abord [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L'agent infrastructure monitore l'hôte lui-même, tandis que l'intégration NVML étend votre monitoring avec des données spécifiques à votre cluster GPU. + + + + ## Utilisez NRI-Flex pour capturer des métriques + + Flex est fourni avec l'agent New Relic Infrastructure. Vous devez configurer NRI-Flex pour nvml et créer un fichier de configuration flex. Suivez ces étapes : + + 1. Créez un fichier nommé `nvml-config.yml` sur le chemin ci-dessous : + + * pour Linux, `/etc/newrelic-infra/integrations.d` + * pour les fenêtres, `C:\Program Files\New Relic\newrelic-infra\integrations.d\` + + 2. Utilisez le snippet ci-dessous pour mettre à jour votre fichier configuration nommé `nvml-config.yml` + + ```yml + integrations: + - name: nri-flex + # interval: 30s + config: + name: NVMLexample + apis: + - name: nvml + file: + ``` + + + + ## Redémarrer l' agent d'infrastructure [#restart-infra] + + Utilisez les instructions de notre [documentation sur l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/) pour redémarrer votre agent d’infrastructure. Il s’agit d’une commande de base qui devrait fonctionner pour la plupart des gens : + + ```shell + sudo systemctl restart newrelic-infra.service + ``` + + + + ## Affichez vos métriques nvml dans New Relic [#view-data] + + Une fois la configuration ci-dessus terminée, vous pouvez afficher vos métriques à l'aide de notre modèle dashboard prédéfini. Pour accéder à ce dashboard: + + 1. Rendez-vous sur **[one.newrelic.com](https://one.newrelic.com/) > + Integrations & Agents**. + 2. Cliquez sur l’onglet **Dashboards** . + 3. Dans le champ de recherche, tapez `nvml`. + 4. Sélectionnez-le et cliquez sur **Install**. + + Pour intrumenter le quickstart NVML et voir les métriques et les alertes, vous pouvez également suivre notre [page quickstart NVML](https://newrelic.com/instant-observability/nvml) en cliquant sur le bouton `Install now`. + + Voici un exemple de requête pour vérifier le nombre de périphériques dans le GPU : + + ```sql + SELECT latest(temperature_gpu) FROM nvmlSample TIMESERIES + ``` + + + +## Quelle est la prochaine étape ? [#whats-next] + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/ocsf-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/ocsf-integration.mdx new file mode 100644 index 00000000000..d2ad3300351 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/ocsf-integration.mdx @@ -0,0 +1,97 @@ +--- +title: Intégration OCSF +tags: + - New Relic integrations + - OCSF integration +metaDescription: Use New Relic infrastructure agent to get a dashboard with metrics from your OCSF format data. +freshnessValidatedDate: '2024-09-18T00:00:00.000Z' +translationType: machine +--- + +Utilisez New Relic pour monitorer de manière transparente les données du framework Open Cybersecurity Schema (OCSF). Vous bénéficierez d'une visibilité complète sur les données liées à la sécurité provenant de plusieurs sources pour faciliter la détection des menaces, la réponse aux incidents et la conformité. + +OCSF dashboard + +
+ Après avoir configuré notre intégration OCSF, visualisez vos données dans un dashboard dès la sortie de la boîte. +
+ +## Configurer l'intégration OCSF [#set-up-ocsf] + +Suivez les étapes suivantes pour configurer l’intégration OCSF : + + + + ## Installer l' agent d'infrastructure [#infra-install] + + Pour utiliser l’intégration OCSF, vous devez également [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L'agent infrastructure monitore l'hôte lui-même, tandis que l'intégration que vous installerez à l'étape suivante étend votre monitoring avec des données spécifiques à OCSF. + + + + ## Activer l'intégration OCSF avec `nri-flex` [#enable] + + 1. Créez un fichier nommé `nri-ocsf.yml` dans le répertoire d'intégration : + + ```shell + touch /etc/newrelic-infra/integrations.d/nri-ocsf.yml + ``` + + 2. Ajoutez le snippet suivant à votre fichier `nri-ocsf.yml` pour permettre à l'agent de capturer les données OCSF : + + ```yml + integrations: + - name: nri-flex + config: + name: ocsfExample + global: + base_url: http://ip-address:PORT + headers: + accept: application/json + apis: + - event_type: ocsfSampleEvent # use this name to query the data + url: /customEndpoint # endpoint with OCSF data + - event_type: ocsfCustomEvent1 + url: /customEndpoint2 + ``` + + + + ## Redémarrez l'agent New Relic Infrastructure [#restat-agent] + + Utilisez les instructions de notre [documentation sur l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/) pour redémarrer votre agent d’infrastructure. Voici une commande qui devrait fonctionner pour la plupart des gens : + + ```shell + sudo systemctl restart newrelic-infra.service + ``` + + + + ## Trouvez vos données [#find-data] + + Vous pouvez utiliser notre modèle dashboard prédéfini pour monitorer les métriques de votre application OCSF. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. Allez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > + Integrations & Agents**. + + 2. Sélectionnez **Dashboards** pour accéder aux ressources prédéfinies. + + 3. Recherchez **OCSF** et sélectionnez le dashboard. + + Pour intrumenter le quickstart OCSF et voir les métriques et les alertes, vous pouvez également suivre notre [page quickstart OCSF](https://newrelic.com/instant-observability/ocsf) en cliquant sur le bouton **Install now**. + + Voici un exemple de requête NRQL pour afficher le temps de disponibilité du maître OCSF : + + ```sql + SELECT * FROM ocsfSampleEvent + ``` + + + +## Quelle est la prochaine étape ? [#whats-next] + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. + +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. + +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/openstack-controller-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/openstack-controller-integration.mdx new file mode 100644 index 00000000000..f93169ccdc9 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/openstack-controller-integration.mdx @@ -0,0 +1,755 @@ +--- +title: Intégration du contrôleur Openstack +tags: + - Openstack Controller integrationn + - New Relic integrations +metaDescription: Install our Openstack Controller dashboards and see your Openstack Controller data in New Relic. +freshnessValidatedDate: '2023-08-28T00:00:00.000Z' +translationType: machine +--- + +Notre intégration de contrôleur OpenStack est conçue pour collecter des informations à partir de tous les nœuds Calculer et des serveurs qui l'exécutent. Toutes les métriques collectées à partir de ces services OpenStack sont ingérées dans vos comptes New Relic informations détaillées (NRDB) à des fins d'analyse, de visualisation et d'alerte. Vous pouvez ainsi visualiser toutes vos données les plus importantes, en un seul endroit. + +Openstack Controller dashboard + +
+ Après avoir configuré notre contrôleur Openstack, vous pouvez installer un dashboard pour les métriques de votre contrôleur Openstack. +
+ +## Installer l' agent d'infrastructure [#infra] + +Pour intégrer des données dans New Relic, installez notre agent d'infrastructure. Notre agent d'infrastructure collecte et ingère des données afin que vous puissiez suivre les performances de votre application. La version doit être 1.10.7 ou supérieure pour prendre en charge l'intégration NRI-Flex. + +Vous pouvez installer l' agent d'infrastructure de deux manières différentes : + +* Notre [guide d'installation](https://one.newrelic.com/nr1-core?state=4f81feab-35f7-e97e-9903-52510f8542bd) est un outil CLI qui inspecte votre système et installe agent l' d'infrastructure aux côtés de l'monitoring d'applicationqui agent fonctionne le mieux pour votre système. Pour en savoir plus sur le fonctionnement de notre guide d'installation, consultez notre [aperçu du guide d'installation](/docs/infrastructure/host-integrations/installation/new-relic-guided-install-overview). +* Si vous préférez installer notre agent d'infrastructure manuellement, vous pouvez suivre un tutoriel d' installation manuelle pour [Linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux), [Windows](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows/) ou [macOS](/docs/infrastructure/install-infrastructure-agent/macos-installation/install-infrastructure-monitoring-agent-macos/). + +## Configurer nr1-openstack + +1. Cloner le référentiel + + ``` + git clone https://github.com/newrelic-experimental/nr1-openstack + ``` + +2. Utilisez cette commande pour ouvrir le répertoire `openstack-agent` présent dans le référentiel cloné. + + ```shell + cd nr1-openstack/openstack-agent/ + ``` + +3. Renommez le fichier `config/os-config.json.template` en `config/os-config.json` et modifiez le fichier comme indiqué ci-dessous + + * Mise à jour `nr_agent_home`, vous devez entrer le répertoire parent du dossier **config/** de votre référentiel cloné. + + * Exécutez la commande ci-dessous pour voir les détails des URL de point de terminaison. + + ```shell + openstack catalog list + ``` + + * Pour obtenir la valeur de `keystone_url`, copiez l’URL du point de terminaison pour `name: keystone` et `type: identity`. + + * Pour trouver le `keystone_api_version`, exécutez la commande ci-dessous. + + ```shell + curl -i http:///identify + ``` + + * Pour trouver le `glance_api_version`, exécutez la commande ci-dessous. + + ```shell + curl -i http:///image + ``` + + * Mettez à jour `ADMIN_PASSWORD` dans le fichier de configuration ci-dessous, en utilisant votre mot de passe de connexion openstack. + + Une fois votre fichier json mis à jour, il ressemblera à ceci : + + ``` + { + "config": { + "nr_agent_home": "nr_agent_home", + "keystone_url": "http://HOST_IP/identity", + "keystone_api_version": "v3", + "nova_api_version": "v2.1", + "cinder_api_version": "v3", + "neutron_api_version": "v2.0", + "glance_api_version": "v2.16", + "ssl_verify": false, + "add_lists": true, + "user": { + "password": "ADMIN_PASSWORD", + "name": "admin", + "domain": { + "id": "default" + } + }, + "service_types": { + "keystone": { + "enabled": true, + "component_name": "identity", + "metrics": [ + "openstack.identity.credentials_count", + "openstack.identity.domains_count", + "openstack.identity.groups_count", + "openstack.identity.policies_count", + "openstack.identity.projects_count", + "openstack.identity.regions_count", + "openstack.identity.roles_count", + "openstack.identity.services_count", + "openstack.identity.users_count", + "openstack.identity.floatingips_count", + "openstack.identity.routers_count", + "openstack.identity.security_groups_count", + "openstack.identity.subnets_count" + ] + }, + "hypervisors": { + "enabled": true, + "component_name": "nova", + "metrics": [ + "openstack.nova.hypervisor.current_workload", + "openstack.nova.hypervisor.disk_available_least", + "openstack.nova.hypervisor.free_disk_gb", + "openstack.nova.hypervisor.free_ram_mb", + "openstack.nova.hypervisor.host_ip", + "openstack.nova.hypervisor.hypervisor_hostname", + "openstack.nova.hypervisor.hypervisor_type", + "openstack.nova.hypervisor.hypervisor_version", + "openstack.nova.hypervisor.id", + "openstack.nova.hypervisor.load_average_1", + "openstack.nova.hypervisor.load_average_15", + "openstack.nova.hypervisor.load_average_5", + "openstack.nova.hypervisor.local_gb", + "openstack.nova.hypervisor.local_gb_used", + "openstack.nova.hypervisor.memory_mb", + "openstack.nova.hypervisor.memory_mb_used", + "openstack.nova.hypervisor.running_vms", + "openstack.nova.hypervisor.service.disabled_reason", + "openstack.nova.hypervisor.service.host", + "openstack.nova.hypervisor.service.id", + "openstack.nova.hypervisor.state", + "openstack.nova.hypervisor.status", + "openstack.nova.hypervisor.uptime", + "openstack.nova.hypervisor.user_count", + "openstack.nova.hypervisor.vcpus", + "openstack.nova.hypervisor.vcpus_used" + ] + }, + "resource_providers": { + "enabled": true, + "component_name": "placement", + "metrics": [ + "openstack.placement.inventories.DISK_GB.allocation_ratio", + "openstack.placement.inventories.DISK_GB.max_unit", + "openstack.placement.inventories.DISK_GB.min_unit", + "openstack.placement.inventories.DISK_GB.reserved", + "openstack.placement.inventories.DISK_GB.step_size", + "openstack.placement.inventories.DISK_GB.total", + "openstack.placement.inventories.MEMORY_MB.allocation_ratio", + "openstack.placement.inventories.MEMORY_MB.max_unit", + "openstack.placement.inventories.MEMORY_MB.min_unit", + "openstack.placement.inventories.MEMORY_MB.reserved", + "openstack.placement.inventories.MEMORY_MB.step_size", + "openstack.placement.inventories.MEMORY_MB.total", + "openstack.placement.inventories.VCPU.allocation_ratio", + "openstack.placement.inventories.VCPU.max_unit", + "openstack.placement.inventories.VCPU.min_unit", + "openstack.placement.inventories.VCPU.reserved", + "openstack.placement.inventories.VCPU.step_size", + "openstack.placement.inventories.VCPU.total", + "openstack.placement.resource.name", + "openstack.placement.resource.uuid", + "openstack.placement.resource_provider_generation", + "openstack.placement.usages.DISK_GB", + "openstack.placement.usages.MEMORY_MB", + "openstack.placement.usages.VCPU" + ] + }, + "images": { + "enabled": true, + "component_name": "glance", + "metrics": [ + "openstack.glance.image.AppCode", + "openstack.glance.image.Name", + "openstack.glance.image.ServiceName", + "openstack.glance.image.ServiceOwner", + "openstack.glance.image.signature_verified", + "openstack.glance.image.image_type", + "openstack.glance.image.checksum", + "openstack.glance.image.container_format", + "openstack.glance.image.created_at", + "openstack.glance.image.disk_format", + "openstack.glance.image.file", + "openstack.glance.image.hw_rng_model", + "openstack.glance.image.id", + "openstack.glance.image.min_disk", + "openstack.glance.image.min_ram", + "openstack.glance.image.name", + "openstack.glance.image.os_hash_algo", + "openstack.glance.image.os_hash_value", + "openstack.glance.image.os_hidden", + "openstack.glance.image.owner", + "openstack.glance.image.owner_specified.openstack.md5", + "openstack.glance.image.owner_specified.openstack.object", + "openstack.glance.image.owner_specified.openstack.sha256", + "openstack.glance.image.protected", + "openstack.glance.image.schema", + "openstack.glance.image.self", + "openstack.glance.image.size", + "openstack.glance.image.status", + "openstack.glance.image.tags", + "openstack.glance.image.updated_at", + "openstack.glance.image.virtual_size", + "openstack.glance.image.visibility" + ] + + }, + "nova": { + "enabled": true, + "component_name": "compute", + "metrics": [ + "openstack.compute.agents_count", + "openstack.compute.aggregates_count", + "openstack.compute.flavors_count", + "openstack.compute.keypairs_count", + "openstack.compute.services_count" + ] + }, + "block_storage": { + "enabled": true, + "component_name": "cinder", + "metrics": [ + "openstack.cinder.limits.maxTotalBackupGigabytes", + "openstack.cinder.limits.maxTotalBackups", + "openstack.cinder.limits.maxTotalSnapshots", + "openstack.cinder.limits.maxTotalVolumeGigabytes", + "openstack.cinder.limits.maxTotalVolumes", + "openstack.cinder.limits.totalBackupGigabytesUsed", + "openstack.cinder.limits.totalBackupsUsed", + "openstack.cinder.limits.totalGigabytesUsed", + "openstack.cinder.limits.totalSnapshotsUsed", + "openstack.cinder.limits.totalVolumesUsed", + "openstack.cinder.snapshots.count", + "openstack.cinder.snapshots.size", + "openstack.cinder.volumes.count", + "openstack.cinder.volumes.size" + ] + }, + "limits": { + "enabled": true, + "component_name": "nova", + "metrics": [ + "openstack.nova.limits.maxImageMeta", + "openstack.nova.limits.maxPersonality", + "openstack.nova.limits.maxPersonalitySize", + "openstack.nova.limits.maxSecurityGroupRules", + "openstack.nova.limits.maxSecurityGroups", + "openstack.nova.limits.maxServerGroupMembers", + "openstack.nova.limits.maxServerGroups", + "openstack.nova.limits.maxServerMeta", + "openstack.nova.limits.maxTotalCores", + "openstack.nova.limits.maxTotalFloatingIps", + "openstack.nova.limits.maxTotalInstances", + "openstack.nova.limits.maxTotalKeypairs", + "openstack.nova.limits.maxTotalRAMSize", + "openstack.nova.limits.totalCoresUsed", + "openstack.nova.limits.totalFloatingIpsUsed", + "openstack.nova.limits.totalInstancesUsed", + "openstack.nova.limits.totalRAMUsed", + "openstack.nova.limits.totalSecurityGroupsUsed", + "openstack.nova.limits.totalServerGroupsUsed" + ] + }, + "servers": { + "enabled": true, + "component_name": "nova", + "metrics": [ + "openstack.nova.server.cpu0_time", + "openstack.nova.server.cpu1_time", + "openstack.nova.server.cpu2_time", + "openstack.nova.server.cpu3_time", + "openstack.nova.server.cpu4_time", + "openstack.nova.server.cpu5_time", + "openstack.nova.server.cpu6_time", + "openstack.nova.server.cpu7_time", + "openstack.nova.server.hypervisor_name", + "openstack.nova.server.id", + "openstack.nova.server.memory", + "openstack.nova.server.memory-actual", + "openstack.nova.server.memory-available", + "openstack.nova.server.memory-disk_caches", + "openstack.nova.server.memory-hugetlb_pgalloc", + "openstack.nova.server.memory-hugetlb_pgfail", + "openstack.nova.server.memory-last_update", + "openstack.nova.server.memory-major_fault", + "openstack.nova.server.memory-minor_fault", + "openstack.nova.server.memory-rss", + "openstack.nova.server.memory-swap_in", + "openstack.nova.server.memory-swap_out", + "openstack.nova.server.memory-unused", + "openstack.nova.server.memory-usable", + "openstack.nova.server.name", + "openstack.nova.server.rx", + "openstack.nova.server.rx_drop", + "openstack.nova.server.rx_errors", + "openstack.nova.server.rx_packets", + "openstack.nova.server.tx", + "openstack.nova.server.tx_drop", + "openstack.nova.server.tx_errors", + "openstack.nova.server.tx_packets", + "openstack.nova.server.memory-hugetlb_pgfail", + "openstack.nova.server.vda_errors", + "openstack.nova.server.vda_read", + "openstack.nova.server.vda_read_req", + "openstack.nova.server.vda_write", + "openstack.nova.server.vda_write_req", + "openstack.nova.server.vdb_errors", + "openstack.nova.server.vdb_read", + "openstack.nova.server.vdb_read_req", + "openstack.nova.server.vdb_write", + "openstack.nova.server.vdb_write_req", + "openstack.nova.server.vdc_errors", + "openstack.nova.server.vdc_read", + "openstack.nova.server.vdc_read_req", + "openstack.nova.server.vdc_write", + "openstack.nova.server.vdc_write_req", + "openstack.nova.server.vdd_errors", + "openstack.nova.server.vdd_read", + "openstack.nova.server.vdd_read_req", + "openstack.nova.server.vdd_write", + "openstack.nova.server.vdd_write_req", + "openstack.nova.server.vde_errors", + "openstack.nova.server.vde_read", + "openstack.nova.server.vde_read_req", + "openstack.nova.server.vde_write", + "openstack.nova.server.vde_write_req" + ] + }, + "networks": { + "enabled": true, + "component_name": "neutron", + "metrics": [ + "openstack.neutron.network.admin_state_up", + "openstack.neutron.network.created_at", + "openstack.neutron.network.description", + "openstack.neutron.network.floatingips_count", + "openstack.neutron.network.id", + "openstack.neutron.network.ipv4_address_scope", + "openstack.neutron.network.ipv6_address_scope", + "openstack.neutron.network.is_default", + "openstack.neutron.network.l2_adjacency", + "openstack.neutron.network.mtu", + "openstack.neutron.network.name", + "openstack.neutron.network.port_security_enabled", + "openstack.neutron.network.project_id", + "openstack.neutron.network.provider:network_type", + "openstack.neutron.network.provider:physical_network", + "openstack.neutron.network.provider:segmentation_id", + "openstack.neutron.network.qos_policy_id", + "openstack.neutron.network.revision_number", + "openstack.neutron.network.router:external", + "openstack.neutron.network.routers_count", + "openstack.neutron.network.security_groups_count", + "openstack.neutron.network.shared", + "openstack.neutron.network.status", + "openstack.neutron.network.subnets_count", + "openstack.neutron.network.tenant_id", + "openstack.neutron.network.updated_at" + ] + } + }, + "logging": { + "logger_name": "nr.os.mon", + "log_file_name": "nr_openstack_agent.log", + "log_level": "WARNING", + "formatter": "%(asctime)-15s | %(name)-18s | %(process)d | %(levelname)-8s | %(threadName)s | %(funcName)-27s | %(lineno)04d | %(message)s" + } + } + } + + ``` + +4. Utilisez la commande ci-dessous pour accorder l'autorisation d'exécution pour le dossier **scripts** (**scripts/flex-osmetrics.sh** sera invoqué par New Relic Infrastructure Agent) + + ```shell + chmod +x scripts/flex-osmetrics.sh + ``` + +5. Vous pouvez désactiver la capture de toutes les ressources en définissant **enabled** sur **false** pour cette ressource dans **config/os-config.json**. + +## Configuration de nri-flex pour openstack + +Une fois que vous avez installé l'agent d'infrastructure sur votre hôte. Le binaire `nri-flex` est également installé avec. + +Pour créer un fichier de configuration flexible, suivez ces étapes : + + + + 1. Créez un fichier nommé `flex-openstack-system.yaml` dans ce chemin. + + ```shell + /etc/newrelic-infra/integrations.d + ``` + + 2. Mettez à jour le fichier `flex-openstack-system.yml` avec cette configuration : + + * Sous **variable\_store**, définissez les valeurs des variables `authUrl`, `userDomainID`, `username` et `password` sur les valeurs correctes pour votre installation Openstack. + + Une fois votre fichier de configuration mis à jour, il ressemblera à ceci : + + ```yml + integrations: + - name: nri-flex + inventory_source: metadata/system + interval: 60s + config: + name: OpenStack + variable_store: + authUrl: __KEYSTONE_URL__ + userDomainID: __USER_DOMAIN_ID__ + username: __ADMIN_USER_NAME__ + password: __ADMIN_PASSWORD__ + authString: --os-auth-url=${var:authUrl} --os-username=${var:username} --os-password=${var:password} --os-user-domain-id=${var:userDomainID} + apis: + - name: OpenStackProjectLookup + commands: + - run: openstack project list -f json ${var:authString} + ignore_output: true + - name: OpenStackHypervisorLookup + commands: + - run: openstack hypervisor list -f json ${var:authString} --os-project-id=${lookup.OpenStackProjectLookupSample:ID} + custom_attributes: + projectID: ${lookup.OpenStackProjectLookupSample:ID} + projectName: ${lookup.OpenStackProjectLookupSample:Name} + ignore_output: true + - name: OpenStackServerList + run_async: true + commands: + - run: openstack server list -f json ${var:authString} --os-project-id=${lookup.OpenStackHypervisorLookupSample:projectID} --host=${lookup.OpenStackHypervisorLookupSample:Hypervisor Hostname} + custom_attributes: + hypervisorHostname: ${lookup.OpenStackHypervisorLookupSample:Hypervisor Hostname} + hypervisorID: ${lookup.OpenStackHypervisorLookupSample:ID} + projectID: ${lookup.OpenStackHypervisorLookupSample:projectID} + projectName: ${lookup.OpenStackHypervisorLookupSample:projectName} + ignore_output: true + ### Servers ----------------------------------------------------- + - name: System + run_async: true + entity: ${lookup.OpenStackServerListSample:hypervisorHostname}:${lookup.OpenStackServerListSample:hypervisorID}:${lookup.OpenStackServerListSample:Name} + commands: + - run: openstack server show --diagnostics ${lookup.OpenStackServerListSample:ID} -f json ${var:authString} --os-project-id=${lookup.OpenStackServerListSample:projectID} + custom_attributes: + domainID: ${var:userDomainID} + hypervisorHostname: ${lookup.OpenStackServerListSample:hypervisorHostname} + hypervisorID: ${lookup.OpenStackServerListSample:hypervisorID} + projectID: ${lookup.OpenStackServerListSample:projectID} + projectName: ${lookup.OpenStackServerListSample:projectName} + serverID: ${lookup.OpenStackServerListSample:ID} + Flavor: ${lookup.OpenStackServerListSample:Flavor} + Image: ${lookup.OpenStackServerListSample:Image} + Name: ${lookup.OpenStackServerListSample:Name} + Networks: ${lookup.OpenStackServerListSample:Networks} + Status: ${lookup.OpenStackServerListSample:Status} + rename_keys: + \S+_rx: rx + \S+_tx: tx + inventory: + serverID: name + ### Hypervisors ----------------------------------------------------- + - name: System + run_async: true + entity: ${lookup.OpenStackHypervisorLookupSample:Hypervisor Hostname}:${lookup.OpenStackHypervisorLookupSample:ID} + commands: + - run: openstack hypervisor show ${lookup.OpenStackHypervisorLookupSample:ID} -f json ${var:authString} --os-project-id=${lookup.OpenStackHypervisorLookupSample:projectID} + split_by: ":" + remove_keys: + - cpu_info + custom_attributes: + domainID: ${var:userDomainID} + dedupe_lookups: + - ID + inventory: + id: name + value_mapper: + load_average=>loadAverageOneMinute: + - (.+), (.+), (.+)=>$1 + load_average=>loadAverageFiveMinute: + - (.+), (.+), (.+)=>$2 + load_average=>loadAverageFifteenMinute: + - (.+), (.+), (.+)=>$3 + ``` + + + + 1. Créez un fichier nommé `openstack.block_storage.yml` dans ce chemin. + + ```shell + /etc/newrelic-infra/integrations.d + ``` + + 2. Mettez à jour le fichier `openstack.block_storage.yml` avec cette configuration : + + * Sous **variable\_store** dans le fichier yaml pour définir la valeur de la variable `nrAgentHome` sur le répertoire personnel de l'agent OpenStack de New Relic (répertoire parent du dossier `ohi-integration/` ) + + Une fois votre fichier de configuration mis à jour, il ressemblera à ceci : + + ```yml + --- + # change all base directories to NR Openstack agent home directory + # "_ABSOLUTE_PATH_TO_NR_AGENT_HOME_DIR_" -> NR Openstack agent installation location + integrations: + - name: nri-flex + interval: 30s + config: + name: openstackTestIntegration + variable_store: + nrAgentHome: _ABSOLUTE_PATH_TO_NR_AGENT_HOME_DIR_ + osServiceType: block_storage + apis: + - name: OSBlockStorage + commands: + - run: "mkdir -p ${var:nrAgentHome}/logs 2>/dev/null ; ${var:nrAgentHome}/scripts/flex-osmetrics.sh ${var:osServiceType} 2>>${var:nrAgentHome}/logs/os-mon-${var:osServiceType}-err.log" + ``` + + + + 1. Créez un fichier nommé `openstack.images.yml` dans ce chemin. + + ```shell + /etc/newrelic-infra/integrations.d + ``` + + 2. Mettez à jour le fichier `openstack.images.yml` avec cette configuration : + + * Sous **variable\_store** dans le fichier yaml pour définir la valeur de la variable `nrAgentHome` sur le répertoire personnel de l'agent OpenStack de New Relic (répertoire parent du dossier `ohi-integration/` ) + + Une fois votre fichier de configuration mis à jour, il ressemblera à ceci : + + ```yml + --- + # change all base directories to NR Openstack agent home directory + # "_ABSOLUTE_PATH_TO_NR_AGENT_HOME_DIR_" -> NR Openstack agent installation location + integrations: + - name: nri-flex + interval: 30s + config: + name: openstackTestIntegration + variable_store: + nrAgentHome: _ABSOLUTE_PATH_TO_NR_AGENT_HOME_DIR_ + osServiceType: block_storage + apis: + - name: OSBlockStorage + commands: + - run: "mkdir -p ${var:nrAgentHome}/logs 2>/dev/null ; ${var:nrAgentHome}/scripts/flex-osmetrics.sh ${var:osServiceType} 2>>${var:nrAgentHome}/logs/os-mon-${var:osServiceType}-err.log" + ``` + + + + 1. Créez un fichier nommé `openstack.keystone.yml` dans ce chemin. + + ```shell + /etc/newrelic-infra/integrations.d + ``` + + 2. Mettez à jour le fichier `openstack.keystone.yml` avec cette configuration : + + * Sous **variable\_store** dans le fichier yaml pour définir la valeur de la variable `nrAgentHome` sur le répertoire personnel de l'agent OpenStack de New Relic (répertoire parent du dossier `ohi-integration/` ). Une fois votre fichier de configuration mis à jour, il ressemblera à ceci : + + ```yml + --- + # change all base directories to NR Openstack agent home directory + # "_ABSOLUTE_PATH_TO_NR_AGENT_HOME_DIR_" -> NR Openstack agent installation location + integrations: + - name: nri-flex + interval: 30s + config: + name: openstackTestIntegration + variable_store: + nrAgentHome: _ABSOLUTE_PATH_TO_NR_AGENT_HOME_DIR_ + osServiceType: keystone + apis: + - name: OSKeystone + commands: + - run: "mkdir -p ${var:nrAgentHome}/logs 2>/dev/null ; ${var:nrAgentHome}/scripts/flex-osmetrics.sh ${var:osServiceType} 2>>${var:nrAgentHome}/logs/os-mon-${var:osServiceType}-err.log" + ``` + + + + 1. Créez un fichier nommé `openstack.limits.yml` dans ce chemin. + + ```shell + /etc/newrelic-infra/integrations.d + ``` + + 2. Mettez à jour le fichier `openstack.limits.yml` avec cette configuration : + + * Sous **variable\_store** dans le fichier yaml pour définir la valeur de la variable `nrAgentHome` sur le répertoire personnel de l'agent OpenStack de New Relic (répertoire parent du dossier `ohi-integration/` ). Une fois votre fichier de configuration mis à jour, il ressemblera à ceci : + + ```yml + --- + # change all base directories to NR Openstack agent home directory + # "_ABSOLUTE_PATH_TO_NR_AGENT_HOME_DIR_" -> NR Openstack agent installation location + integrations: + - name: nri-flex + interval: 30s + config: + name: openstackTestIntegration + variable_store: + nrAgentHome: _ABSOLUTE_PATH_TO_NR_AGENT_HOME_DIR_ + osServiceType: limits + apis: + - name: OSLimit + commands: + - run: "mkdir -p ${var:nrAgentHome}/logs 2>/dev/null ; ${var:nrAgentHome}/scripts/flex-osmetrics.sh ${var:osServiceType} 2>>${var:nrAgentHome}/logs/os-mon-${var:osServiceType}-err.log" + ``` + + + + 1. Créez un fichier nommé `openstack.networks.yml` dans ce chemin. + ```shell + /etc/newrelic-infra/integrations.d + ``` + + 2. Mettez à jour le fichier `openstack.networks.yml` avec cette configuration : + + * Sous **variable\_store** dans le fichier yaml pour définir la valeur de la variable `nrAgentHome` sur le répertoire personnel de l'agent OpenStack de New Relic (répertoire parent du dossier `ohi-integration/` ). Une fois votre fichier de configuration mis à jour, il ressemblera à ceci : + + ```yml + --- + # change all base directories to NR Openstack agent home directory + # "_ABSOLUTE_PATH_TO_NR_AGENT_HOME_DIR_" -> NR Openstack agent installation location + integrations: + - name: nri-flex + interval: 30s + config: + name: openstackTestIntegration + variable_store: + nrAgentHome: _ABSOLUTE_PATH_TO_NR_AGENT_HOME_DIR_ + osServiceType: networks + apis: + - name: OSNetwork + commands: + - run: "mkdir -p ${var:nrAgentHome}/logs 2>/dev/null ; ${var:nrAgentHome}/scripts/flex-osmetrics.sh ${var:osServiceType} 2>>${var:nrAgentHome}/logs/os-mon-${var:osServiceType}-err.log" + ``` + + + + 1. Créez un fichier nommé `openstack.nova.yml` dans ce chemin. + + ```shell + /etc/newrelic-infra/integrations.d + ``` + + 2. Mettez à jour le fichier `openstack.nova.yml` avec cette configuration : + + * Sous **variable\_store** dans le fichier yaml pour définir la valeur de la variable `nrAgentHome` sur le répertoire personnel de l'agent OpenStack de New Relic (répertoire parent du dossier `ohi-integration/` ). Une fois votre fichier de configuration mis à jour, il ressemblera à ceci : + + ```yml + --- + # change all base directories to NR Openstack agent home directory + # "_ABSOLUTE_PATH_TO_NR_AGENT_HOME_DIR_" -> NR Openstack agent installation location + integrations: + - name: nri-flex + interval: 30s + config: + name: openstackTestIntegration + variable_store: + nrAgentHome: _ABSOLUTE_PATH_TO_NR_AGENT_HOME_DIR_ + osServiceType: nova + apis: + - name: OSNova + commands: + - run: "mkdir -p ${var:nrAgentHome}/logs 2>/dev/null ; ${var:nrAgentHome}/scripts/flex-osmetrics.sh ${var:osServiceType} 2>>${var:nrAgentHome}/logs/os-mon-${var:osServiceType}-err.log" + ``` + + + + 1. Créez un fichier nommé `openstack.resource_providers.yml` dans ce chemin. + + ```shell + /etc/newrelic-infra/integrations.d + ``` + + 2. Mettez à jour le fichier `openstack.resource_providers.yml` avec cette configuration : + + * Sous **variable\_store** dans le fichier yaml pour définir la valeur de la variable `nrAgentHome` sur le répertoire personnel de l'agent OpenStack de New Relic (répertoire parent du dossier `ohi-integration/` ). Une fois votre fichier de configuration mis à jour, il ressemblera à ceci : + + ```yml + --- + # change all base directories to NR Openstack agent home directory + # "_ABSOLUTE_PATH_TO_NR_AGENT_HOME_DIR_" -> NR Openstack agent installation location + integrations: + - name: nri-flex + interval: 30s + config: + name: openstackTestIntegration + variable_store: + nrAgentHome: _ABSOLUTE_PATH_TO_NR_AGENT_HOME_DIR_ + osServiceType: resource_providers + apis: + - name: OSResourceProvider + commands: + - run: "mkdir -p ${var:nrAgentHome}/logs 2>/dev/null ; ${var:nrAgentHome}/scripts/flex-osmetrics.sh ${var:osServiceType} 2>>${var:nrAgentHome}/logs/os-mon-${var:osServiceType}-err.log" + ``` + + + +## Transférer le log du contrôleur Openstack vers New Relic + +Vous pouvez utiliser notre [transfert de log](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/) pour transférer le log du contrôleur Openstack vers New Relic. + +Sur les machines Linux, votre fichier de log nommé `logging.yml` doit être présent dans ce chemin : + +```shell +cd /etc/newrelic-infra/logging.d/ +``` + +Ajoutez le script ci-dessous au fichier `logging.yml` pour envoyer le log du contrôleur Openstack à New Relic. + +```yml +logs: + - name: openstack.log + file: /openstack-agent/logs/nr_openstack_agent.log + attributes: + logtype: openstack_log +``` + +## Redémarrez l'agent New Relic Infrastructure + +Avant de pouvoir commencer à lire vos données, utilisez les instructions de notre [documentation suragent d'infrastructure ](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/)pour redémarrer votre agent d'infrastructure. + +```shell +sudo systemctl restart newrelic-infra.service +``` + +## Monitorer votre application + +Vous pouvez choisir notre modèle dashboard prédéfini nommé `Openstack Controller` pour monitorer les métriques de votre application Openstack. + +1. Allez à **[one.newrelic.com](https://one.newrelic.com/)** et cliquez sur **+ Integrations & Agents**. +2. Cliquez sur l'onglet **Dashboards** . +3. Dans le champ de recherche, tapez `Openstack Controller`. +4. Lorsque vous voyez notre dashboard pré-construit, cliquez dessus pour l'installer sur votre compte. + +Une fois votre application intégrée en suivant les étapes ci-dessus, le dashboard devrait afficher des métriques. + +Pour intrumenter le quickstart d'OpenStack et voir les métriques et les alertes, vous pouvez également suivre notre [page quickstart d'OpenStack Controller](https://newrelic.com/instant-observability/openstack-controller) qui comporte un bouton **Install now**. + +Voici quelques exemples de requêtes : + +**Example:** voir le nombre de types d'événements + +```sql +select count(*) from OSBlockStorageSample, OSLimitSample, OSNetworkSample, OSResourceProviderSample, OSImageSample, OSKeystoneSample, OSNovaSample since 10 minutes ago facet eventType() timeseries +``` + +## Quelle est la prochaine étape ? + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/oracle-database-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/oracle-database-monitoring-integration.mdx new file mode 100644 index 00000000000..843437a2c9e --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/oracle-database-monitoring-integration.mdx @@ -0,0 +1,8008 @@ +--- +title: IntégrationOracle de la base de données monitoring +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: 'New Relic''s Oracle Database integration: how to install it and configure it, and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +Notre Oracle [intégration](/docs/integrations/host-integrations/getting-started/introduction-host-integrations) de base de données collecte par défaut des mesures de performances clés sur la base de données, les tablespaces et la mémoire. Vous pouvez personnaliser votre configuration pour collecter encore plus de métriques, vous offrant ainsi une caractérisation détaillée des performances de la base de données. + +Lisez la suite pour installer l’intégration et voir quelles données nous collectons. + +## Compatibilité et exigences [#comp-req] + +Notre intégration est compatible avec Oracle base de données des versions 11.2 à 23. + +Avant d’installer l’intégration, assurez-vous que vous répondez aux exigences suivantes : + +* Distribution Linux [compatible avec l'infrastructure](/docs/infrastructure/new-relic-infrastructure/getting-started/compatibility-requirements-new-relic-infrastructure), à l'exception des versions RHEL/CentOS/OEL inférieures à 7. +* [Installez l'agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic). +* [Oracle Instant Client](http://www.Oracle.com/technetwork/database/database-technologies/instant-client/downloads/index.html) sur la boîte de l'agent. +* Base de données Oracle avec `ORACLE_HOME` [configuré dans le répertoire correct](https://docs.oracle.com/database/121/ADMQS/GUID-EC18C4A6-3BA5-4C14-9D76-B0DD62FEFFF2.htm#ADMQS12369) pour l'utilisateur racine. +* Base de données utilisateur Oracle avec [les privilèges **CONNECT** et **SELECT** ](#users-privileges)sur les vues globales requises. +* Base de données Oracle avec un fichier `listener.ora` configuré pour monitorer à partir d'une connexion à distance. Par défaut, la base de données Oracle écoute uniquement localhost. + + + L'architecture ARM64 n'est pas prise en charge. + + +## Installer et activer [#install] + +Pour installer l’intégration de la base de données Oracle : + +1. Installez [l'agent d'infrastructure](/docs/integrations/host-integrations/installation/install-infrastructure-host-integrations/#install) et remplacez la variable `INTEGRATION_FILE_NAME` par `nri-oracledb`. + +2. Changer de répertoire vers le dossier d'intégration : + + ```shell + cd /etc/newrelic-infra/integrations.d + ``` + +3. Copiez l’exemple de fichier de configuration : + + ```shell + sudo cp oracledb-config.yml.sample oracledb-config.yml + ``` + +4. Modifiez le fichier `oracledb-config.yml` comme décrit dans les [paramètres de configuration](#config). + +Notes supplémentaires : + +* **Advanced:** Il est également possible d'[installer l'intégration à partir d'un fichier tarball](/docs/integrations/host-integrations/installation/install-host-integrations-built-new-relic#tarball). Cela vous donne un contrôle total sur le processus d'installation et de configuration. +* **On-host integrations do not automatically update.** Pour de meilleurs résultats, mettez régulièrement [à jour le package d'intégration](/docs/integrations/host-integrations/installation/update-infrastructure-host-integration-package) et [l'agent d'infrastructure](/docs/infrastructure/new-relic-infrastructure/installation/update-infrastructure-agent). + + + +## Configuration [#configuration] + +### Activation de votre serveur de base de données Oracle [#enable-instance] + +Dans la base de données Oracle, exécutez les instructions suivantes pour créer un nouvel utilisateur et attribuer des privilèges utilisateur. USERNAME et les valeurs similaires spécifiques à l'utilisateur doivent être remplacées. + +1. Choisissez le type de base de données dont vous disposez. Pour obtenir de l'aide concernant les questions de maintenance utilisateur, consultez la [documentationOracle ](https://docs.oracle.com/en/database/oracle/oracle-database/index.html)ou contactez votre administrateur de système ou de base de données. + + + + Pour une base de données autonome si vous utilisez Oracle DB 12c ou version ultérieure, utilisez `ALTER SESSION` pour accéder à la base de données et gérer les propriétés utilisateur et utilisateur. N'exécutez pas cette requête si votre version de base de données Oracle est inférieure à 12c. + + ``` + ALTER SESSION set "_Oracle_SCRIPT"=true; + ``` + + Utilisez `CREATE USER` pour ajouter un nouvel utilisateur à la base de données. Remplacez `USER_PASSWORD` par le [mot de passe du nouvel utilisateur](https://docs.oracle.com/en/database/oracle/oracle-database/12.2/dbseg/keeping-your-oracle-database-secure.html#GUID-451679EB-8676-47E6-82A6-DF025FD65156). + + ``` + CREATE USER USERNAME IDENTIFIED BY "USER_PASSWORD"; + ``` + + + + Pour une base de données multitenant, log -vous à la base de données racine en tant qu'administrateur. Utilisez `CREATE USER` pour ajouter un nouvel utilisateur à la base de données. Le nom d'utilisateur spécifié sera un « utilisateur commun » et doit être préfixé par « c## » comme recommandé par Oracle. Remplacez `USER_PASSWORD` par le [mot de passe du nouvel utilisateur](https://docs.oracle.com/en/database/oracle/oracle-database/12.2/dbseg/keeping-your-oracle-database-secure.html#GUID-451679EB-8676-47E6-82A6-DF025FD65156). + + ``` + CREATE USER c##USERNAME IDENTIFIED BY "USER_PASSWORD"; + ``` + + Accorder la permission au nouvel utilisateur d'accéder à tous les objets conteneur (ou à un conteneur spécifique en mentionnant le nom du conteneur PDB et le nom du conteneur racine dans « conteneur »). + + ``` + ALTER USER c##USERNAME SET CONTAINER_DATA=ALL CONTAINER=CURRENT; + ``` + + + +2. Accordez `CONNECT` privilèges à l'utilisateur : + + ``` + GRANT CONNECT TO USERNAME; + ``` + +3. Accordez `SELECT` privilèges à l'utilisateur sur les vues globales suivantes : + + * `cdb_data_files` + + * `cdb_pdbs` + + * `cdb_users` + + * `gv_$sysmetric` + + * `gv_$pgastat` + + * `gv_$instance` + + * `gv_$filestat` + + * `gv_$parameter` + + * `sys.dba_data_files` + + * `gv_$session` + + * `gv_$sesstat` + + * `gv_$statname` + + * `gv_$rowcache` + + * `gv_$sga` + + * `gv_$sysstat` + + * `v_$database` + + * `gv_$librarycache` + + * `gv_$sqlarea` + + * `gv_$system_event` + + * `dba_tablespaces` + + * `gv_$session_wait` + + * `gv_$rollstat` + + * `v_$instance` + + Exécutez les instructions SQL suivantes ensemble dans un script ou individuellement : + + ``` + GRANT SELECT ON cdb_data_files TO USERNAME; + GRANT SELECT ON cdb_pdbs TO USERNAME; + GRANT SELECT ON cdb_users TO USERNAME; + GRANT SELECT ON gv_$sysmetric TO USERNAME; + GRANT SELECT ON gv_$pgastat TO USERNAME; + GRANT SELECT ON gv_$instance TO USERNAME; + GRANT SELECT ON gv_$filestat TO USERNAME; + GRANT SELECT ON gv_$parameter TO USERNAME; + GRANT SELECT ON sys.dba_data_files TO USERNAME; + GRANT SELECT ON DBA_TABLESPACES TO USERNAME; + GRANT SELECT ON DBA_TABLESPACE_USAGE_METRICS TO USERNAME; + GRANT SELECT ON gv_$session TO USERNAME; + GRANT SELECT ON gv_$sesstat TO USERNAME; + GRANT SELECT ON gv_$statname TO USERNAME; + GRANT SELECT ON gv_$rowcache TO USERNAME; + GRANT SELECT ON gv_$sga TO USERNAME; + GRANT SELECT ON gv_$sysstat TO USERNAME; + GRANT SELECT ON v_$database TO USERNAME; + GRANT SELECT ON gv_$librarycache TO USERNAME; + GRANT SELECT ON gv_$sqlarea TO USERNAME; + GRANT SELECT ON gv_$system_event TO USERNAME; + GRANT SELECT ON dba_tablespaces TO USERNAME; + GRANT SELECT ON gv_$session_wait TO USERNAME; + GRANT SELECT ON gv_$rollstat TO USERNAME; + GRANT SELECT ON v_$instance TO USERNAME; + ``` + + Pour collecter les métriques PDB, accordez les privilèges `gv$con_sysmetric` en exécutant : + + ``` + GRANT SELECT ON gv$con_sysmetric TO USERNAME; + ``` + +### Configurer l'intégration [#config] + +Il existe plusieurs façons de configurer l'intégration, selon la manière dont elle a été installée : + +* Si activé via Amazon ECS : voir [les services de monitoring exécutés sur ECS](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). +* Si installé sur l'hôte : modifiez la configuration dans le fichier de configuration YAML de l'intégration, `oracledb-config.yml`. + +La configuration au format YAML d'une intégration est l'endroit où vous pouvez placer les informations de connexion requises et configurer la manière dont les données sont collectées. Les options que vous modifiez dépendent de votre configuration et de vos préférences. + +Le fichier configuration contient des paramètres communs applicables à toutes les intégrations telles que `interval`, `timeout`, `inventory_source`. Pour tout savoir sur ces paramètres courants, reportez-vous à notre document [Format de configuration](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-newer-configuration-format/#configuration-basics) . + + + Si vous utilisez toujours nos anciens fichiers configuration/définition, veuillez vous référer à ce [document](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format/) pour obtenir de l'aide. + + +Les paramètres spécifiques liés à Oracle DB sont définis à l'aide de la section `env` du fichier de configuration. Ces paramètres contrôlent la connexion à votre Oracle DB instance ainsi que d'autres paramètres et fonctionnalités de sécurité. La liste des paramètres valides est décrite dans la section suivante de ce document. + +### Paramètres de l'instance de base de données Oracle [#instance-settings] + +L'intégration Oracle DB collecte à la fois les informations Métriques(**M**) et Inventaire(**I**). Dans le tableau, utilisez la colonne **Applies To** pour les paramètres disponibles pour chaque collection : + +' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **SERVICE\_NAME** + + + Le nom du service pour l'instance Oracle. + + N/A + + MI +
+ + **HOSTNAME** + + + nom d'hôte ou IP où Oracle DB est exécuté. + + 127.0.0.1 + + MI +
+ + **PORT** + + + Port sur lequel Oracle DB écoute. + + 1521 + + MI +
+ + **USERNAME** + + + Nom d'utilisateur pour accéder au serveur Oracle DB. + + N/A + + MI +
+ + **PASSWORD** + + + Mot de passe pour l'utilisateur donné. + + N/A + + MI +
+ + **CONNECTION\_STRING** + + + Une chaîne de connexion complète telle que celles trouvées dans `tnsnames.ora`. A priorité sur le nom d'hôte, le port et le nom du service. + + N/A + + MI +
+ + **ORACLE\_HOME** + + + Chemin vers lequel se trouve `ORACLE_HOME` . Ce champ est obligatoire. + + N/A + + MI +
+ + **TABLESPACES** + + + Un éventail JSON d'espaces table à collecter. S'il est omis, il collecte tous les tablespaces. S'il est vide, il ignore la collecte des métriques de l'espace table. + + \[] + + M +
+ + **IS\_SYS\_DBA** + + + Indique si l'utilisateur authentifié dispose des autorisations SysDBA. + + FAUX + + M +
+ + **IS\_SYS\_OPER** + + + Indique si l'utilisateur authentifié dispose des autorisations SysOper. + + FAUX + + M +
+ + **EXTENDED\_METRICS** + + + Indique s'il faut collecter des métriques étendues. Vérifiez quelles sont les métriques étendues dans le [tableau ci-dessous](#database-metric) + + FAUX + + M +
+ + **SKIP\_METRICS\_GROUPS** + + + Les métriques collectées sont regroupées en fonction de la requête utilisée pour obtenir les données. Ces groupes métriques sont répertoriés [ici](https://github.com/newrelic/nri-oracledb/blob/master/METRIC_GROUPS.md) et peuvent être ignorés de la collection en ajoutant le nom du groupe à `SKIP_METRICS_GROUPS` au format JSON éventail. Par défaut, aucun groupe n'est ignoré. Voir [l'exemple](#metrics-skip) ci-dessous. + + \[] + + M +
+ + **DISABLE\_CONNECTION\_POOL** + + + Désactiver le pool de connexions. À utiliser uniquement si l'intégration rencontre des erreurs lors de la tentative d'établissement de nouvelles connexions à Oracle DB. + + FAUX + + M +
+ + **MAX\_OPEN\_CONNECTIONS** + + + Nombre maximal de connexions simultanées ouvertes par l'intégration. + + 5 + + M +
+ + **SYS\_METRICS\_SOURCE** + + + Définissez-le sur `PDB` pour collecter les métriques du conteneur d’application. Définissez-le sur `ALL` pour collecter les métriques de base de données (CDB) de conteneur multitenant et de base de données enfichable (PDB) créées par les clients. Si vous le définissez sur une autre valeur, vous obtiendrez `SYS` métriques pour la base de données autonome et multilocataire avec accès CDB uniquement. + + '' + + M +
+ + **CUSTOM\_METRICS\_QUERY** + + + Une requête SQL pour collecter des métriques personnalisées. Voir [l'exemple](#custom-query) ci-dessous. + + N/A + + M +
+ + **CUSTOM\_METRICS\_CONFIG** + + + configuration YAML avec une ou plusieurs requêtes SQL pour collecter des métriques personnalisées. Voir [l'exemple](#multi-custom-query) ci-dessous. + + FAUX + + M +
+ + **METRICS** + + + Définissez sur `true` pour activer la collecte de métriques uniquement. + + FAUX + +
+ + **INVENTORY** + + + Définissez sur `true` pour activer la collecte d'inventaire uniquement. + + FAUX + +
+ +Les valeurs de ces paramètres peuvent être définies de plusieurs manières : + +* Ajoutez la valeur directement au fichier de configuration. C'est la manière la plus courante. +* Remplacez les valeurs des variables d’environnement en utilisant la notation `{{}}` . Cela nécessite l'agent d'infrastructure 1.14.0+. Pour en savoir plus, consultez la rubrique « Plus d'informations sur [les variables d'environnement de transfert de l'agent d'infrastructure »](/docs/infrastructure/install-infrastructure-agent/configuration/configure-infrastructure-agent/#passthrough). +* Utilisez la gestion des secrets pour protéger les informations sensibles, telles que les mots de passe, afin qu'elles ne soient pas exposées en texte brut dans le fichier de configuration. Pour plus d'informations, voir [gestion des secrets](/docs/integrations/host-integrations/installation/secrets-management). + +## Libellés et attribut personnalisé [#labels] + +Vous pouvez également décorer vos métriques avec des étiquettes. Les étiquettes vous permettent d'ajouter un attribut de paire valeur clé à vos métriques afin que vous puissiez interroger, filtrer ou regrouper vos métriques. + +Même si notre fichier de configuration d'exemple par défaut inclut des exemples d'étiquettes, ils sont facultatifs. Vous pouvez en supprimer, en modifier ou en ajouter de nouveaux. + +```yml + labels: + env: production + role: load_balancer +``` + +## Exemple de configuration [#examples] + + + + Il s'agit de la configuration de base utilisée pour collecter les métriques et l'inventaire à partir de votre hôte local. Il utilise la connexion par défaut sur le port 1521. N'oubliez pas de remplacer `SERVICE_NAME` et `ORACLE_HOME` par les valeurs correctes pour votre environnement : + + ```yml + integrations: + - name: nri-oracledb + env: + SERVICE_NAME: ORACLE + HOSTNAME: 127.0.0.1 + PORT: 1521 + USERNAME: oracledb_user + PASSWORD: oracledb_password + ORACLE_HOME: /app/oracle/product/version/database + interval: 15s + labels: + environment: production + inventory_source: config/oracledb + ``` + + + + Cette configuration collecte des métriques toutes les 15 secondes et un inventaire toutes les 60 secondes : + + ```yml + integrations: + - name: nri-oracledb + env: + METRICS: true + SERVICE_NAME: ORACLE + HOSTNAME: 127.0.0.1 + PORT: 1521 + USERNAME: oracledb_user + PASSWORD: oracledb_password + ORACLE_HOME: /app/oracle/product/version/database + interval: 15s + labels: + environment: production + + - name: nri-oracledb + env: + INVENTORY: true + SERVICE_NAME: ORACLE + HOSTNAME: 127.0.0.1 + PORT: 1521 + USERNAME: oracledb_user + PASSWORD: oracledb_password + ORACLE_HOME: /app/oracle/product/version/database + interval: 60s + labels: + environment: production + inventory_source: config/oracledb + ``` + + + + Cette configuration collecte uniquement des métriques, y compris celles étendues, en filtrant la collecte sur seulement 2 tablespaces : + + ```yml + integrations: + - name: nri-oracledb + env: + METRICS: true + SERVICE_NAME: ORACLE + HOSTNAME: 127.0.0.1 + PORT: 1521 + USERNAME: oracledb_user + PASSWORD: oracledb_password + ORACLE_HOME: /app/oracle/product/version/database + TABLESPACES: '["tablespace1", "tablespace2"]' + EXTENDED_METRICS: true + interval: 15s + labels: + environment: production + ``` + + + + Cette configuration ignore la collecte de certaines métriques en désactivant certaines requêtes à l'aide de `SKIP_METRICS_GROUPS`. La liste des groupes de métriques autorisés, ainsi que la requête et les métriques affectées, sont répertoriées dans ce [document](https://github.com/newrelic/nri-oracledb/blob/master/METRIC_GROUPS.md): + + ```yml + integrations: + - name: nri-oracledb + env: + SERVICE_NAME: ORACLE + HOSTNAME: 127.0.0.1 + PORT: 1521 + USERNAME: oracledb_user + PASSWORD: oracledb_password + ORACLE_HOME: /app/oracle/product/version/database + SKIP_METRICS_GROUPS: '["sgauga_total_memory", "redo_log_waits"]' + interval: 15s + labels: + environment: production + inventory_source: config/oracledb + ``` + + + + Vous pouvez utiliser une requête personnalisée pour collecter des métriques supplémentaires. Des métriques personnalisées seront ajoutées, par défaut, à l'échantillon d'événement `OracleCustomSample` . + + Remarques : + + * Si vous devez utiliser plusieurs requêtes personnalisées, supprimez ce paramètre et utilisez [`CUSTOM_METRICS_CONFIG`](#multi-custom-query) à la place. + + * N'utilisez pas `;` dans les instructions SQL personnalisées. + + ```yml + integrations: + - name: nri-oracledb + env: + METRICS: true + SERVICE_NAME: ORACLE + HOSTNAME: 127.0.0.1 + PORT: 1521 + USERNAME: oracledb_user + PASSWORD: oracledb_password + ORACLE_HOME: /app/oracle/product/version/database + CUSTOM_METRICS_QUERY: >- + SELECT + 'physical_reads' AS "metric_name", + 'gauge' AS "metric_type", + SUM(PHYRDS) AS "metric_value", + INST_ID AS "instanceID" + FROM gv$filestat + GROUP BY INST_ID + interval: 15s + labels: + environment: production + ``` + + + + Si vous avez besoin de plusieurs requêtes SQL personnalisées, ajoutez-les à `oracledb-custom-query.yml` et référencez ce fichier dans votre configuration. + + **NOTE**: `CUSTOM_METRICS_CONFIG` n'est activé que si `CUSTOM_METRICS_QUERY` n'est pas présent. + + ```yml + integrations: + - name: nri-oracledb + env: + METRICS: true + SERVICE_NAME: ORACLE + HOSTNAME: 127.0.0.1 + PORT: 1521 + USERNAME: oracledb_user + PASSWORD: oracledb_password + ORACLE_HOME: /app/oracle/product/version/database + CUSTOM_METRICS_CONFIG: 'C:\path\to\oracledb-custom-query.yml' + interval: 15s + labels: + environment: production + ``` + + Voici un exemple `oracledb-custom-query.yml`. + + ```yml + queries: + # Metric names are set to the column names in the query results + - query: >- + SELECT + SUM(stat.gets) AS "gets", + SUM(stat.waits) AS "waits", + SUM(stat.waits)/SUM(stat.gets) AS "ratio", + inst.inst_id + FROM GV$ROLLSTAT stat, GV$INSTANCE inst + WHERE stat.inst_id=inst.inst_id + GROUP BY inst.inst_id + + # If not set explicitly here, metric type will default to + # 'gauge' for numbers and 'attribute' for strings + metric_types: + gets: gauge + + # If unset, sample_name defaults to OracleCustomSample + sample_name: MyCustomSample + ``` + + + +## Rechercher et utiliser des données [#find-and-use] + +Pour trouver vos données d'intégration dans New Relic, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > Third-party services** et sélectionnez l'un des liens de la base de données d'intégration Oracle . + +Les données de la base de données Oracle sont attachées aux [types d'événements](/docs/using-new-relic/welcome-new-relic/getting-started/glossary#event) suivants : + +* `OracleDatabaseSample` +* `OracleTablespaceSample` + +Pour en savoir plus sur la recherche et l’utilisation de vos données, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +La base de données d'intégration Oracle collecte l'attribut de données métriques suivant. Chaque nom de métrique est préfixé par un indicateur de catégorie et un point, tel que `disk.` ou `memory.`. + +### base de données métriques [#database-metric] + +Ces attributs peuvent être trouvés en interrogeant le type d'événement `OracleDatabaseSample` . + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description + + Étendu +
+ `db.activeParallelSessions` + + Sessions parallèles actives. + + + **** + +
+ `db.activeSerialSessions` + + Sessions sérielles actives. + + + **** + +
+ `db.averageActiveSessions` + + Sessions actives moyennes. + + + **** + +
+ `db.backgroundCheckpointsPerSecond` + + Points de contrôle par seconde. + + + **** + +
+ `db.backgroundCpuUsagePerSecond` + + Utilisation du processeur en arrière-plan par seconde. + + + **** + +
+ `db.backgroundTimePerSecond` + + Temps d'arrière-plan par seconde. + + + **** + +
+ `db.blockChangesPerSecond` + + Changements de bloc DB par seconde. + + + **** + +
+ `db.blockChangesPerTransaction` + + Modifications du bloc DB par transaction. + + + **** + +
+ `db.blockChangesPerUserCall` + + Modifications du bloc DB par appel utilisateur. + + + **** + +
+ `db.blockGetsPerSecond` + + Bloc DB obtenu par seconde. + + + **** + +
+ `db.blockGetsPerTransaction` + + Le bloc DB est obtenu par transaction. + + + **** + +
+ `db.blockGetsPerUserCall` + + Le bloc DB est obtenu par appel utilisateur. + + + **** + +
+ `db.branchNodeSplitsPerSecond` + + Divisions de nœuds de branche par seconde. + + + **** + +
+ `db.branchNodeSplitsPerTransaction` + + Les nœuds de branche se divisent par transaction. + + + **** + +
+ `db.consistentReadChangesPerSecond` + + Modifications de lecture cohérentes par seconde. + + + **** + +
+ `db.consistentReadChangesPerTransaction` + + Modifications de lecture cohérentes par transaction. + + + **** + +
+ `db.consistentReadGetsPerSecond` + + Lectures cohérentes obtenues par seconde. + + + **** + +
+ `db.consistentReadGetsPerTransaction` + + Lecture cohérente obtenue par transaction. + + + **** + +
+ `db.cpuTimeRatio Database` + + Rapport temps CPU. + + + **** + +
+ `db.cpuUsagePerSecond` + + Utilisation du processeur par seconde. + +
+ `db.cpuUsagePerTransaction` + + Utilisation du processeur par transaction. + + + **** + +
+ `db.crBlocksCreatedPerSecond` + + Blocs CR créés par seconde. + + + **** + +
+ `db.crBlocksCreatedPerTransaction` + + Blocs CR créés par transaction. + + + **** + +
+ `db.crUndoRecordsAppliedPerSecond` + + Enregistrements d'annulation CR appliqués par seconde. + + + **** + +
+ `db.crUndoRecordsAppliedPerTransaction` + + Les enregistrements CR annulés sont appliqués par transaction. + + + **** + +
+ `db.currentLogons` + + Nombre de connexions actuelles. + + + **** + +
+ `db.currentOpenCursors` + + Nombre de curseurs actuellement ouverts. + + + **** + +
+ `db.cursorCacheHitsPerAttempts` + + Curseur taux d'accès au cache ratio. + + + **** + +
+ `db.databaseCpuTimePerSecond` + + Temps de base de données par seconde. + + + **** + +
+ `db.dbwrCheckpointsPerSecond` + + Points de contrôle DBWR par seconde. + + + **** + +
+ `db.enqueueDeadlocksPerSecond` + + Blocages de mise en file d'attente par seconde. + + + **** + +
+ `db.enqueueDeadlocksPerTransaction` + + Mettre en file d'attente les blocages par transaction. + + + **** + +
+ `db.enqueueRequestsPerSecond` + + Mettre en file d'attente requests par seconde. + + + **** + +
+ `db.enqueueRequestsPerTransaction` + + Mettre en file d'attente requests par transaction. + + + **** + +
+ `db.enqueueTimeoutsPerSecond` + + Délais d'attente de mise en file d'attente par seconde. + + + **** + +
+ `db.enqueueTimeoutsPerTransaction` + + Délais d'attente de mise en file d'attente par transaction. + + + **** + +
+ `db.enqueueWaitsPerSecond` + + Attentes en file d'attente par seconde. + + + **** + +
+ `db.enqueueWaitsPerTransaction` + + La mise en file d'attente attend par transaction. + + + **** + +
+ `db.executionsPerSecond` + + Exécutions par seconde. + +
+ `db.executionsPerTransaction` + + Exécutions par transaction. + + + **** + +
+ `db.executionsPerUserCall` + + Exécutions par appel utilisateur. + + + **** + +
+ `db.fullIndexScansPerSecond` + + Analyses d'index complètes par seconde. + + + **** + +
+ `db.fullIndexScansPerTransaction` + + Analyses d'index complètes par transaction. + + + **** + +
+ `db.GcCrBlockRecievedPerSecond` + + Bloc GC CR reçu par seconde. + + + **** + +
+ `db.GcCrBlockRecievedPerTransaction` + + Bloc GC CR reçu par transaction. + + + **** + +
+ `db.GcCurrentBlockReceivedPerSecond` + + Bloc actuel GC reçu par seconde. + + + **** + +
+ `db.GcCurrentBlockReceivedPerTransaction` + + Bloc actuel GC reçu par transaction. + + + **** + +
+ `db.globalCacheAverageCrGetTime` + + Temps moyen d'obtention du CR du cache global. + + + **** + +
+ `db.globalCacheAverageCurrentGetTime` + + Temps moyen d'obtention actuel du cache global. + + + **** + +
+ `db.hardParseCountPerSecond` + + Nombre d'analyses dures par seconde. + + + **** + +
+ `db.hardParseCountPerTransaction` + + Nombre d'analyses dures par transaction. + + + **** + +
+ `db.hostCpuUsagePerSecond` + + Utilisation du processeur de l'hôte par seconde. + + + **** + +
+ `db.hostCpuUtilization` + + Utilisation du processeur de l'hôte (pourcentage). + +
+ `db.leafNodeSplitsPerSecond` + + Divisions de nœuds feuilles par seconde. + + + **** + +
+ `db.leafNodeSplitsPerTransaction` + + Les nœuds feuilles se divisent par transaction. + + + **** + +
+ `db.libraryCacheHitRatio` + + bibliothèque taux d'accès au cache ratio. + + + **** + +
+ `db.libraryCacheMissRatio` + + Taux d'échec du cache de la bibliothèque. + + + **** + +
+ `db.logicalReadsPerSecond` + + Lectures logiques par seconde. + + + **** + +
+ `db.logicalReadsPerTransaction` + + Lectures logiques par transaction. + + + **** + +
+ `db.logonsPerSecond` + + Connexions par seconde. + +
+ `db.logonsPerTransaction` + + Connexions par transaction. + + + **** + +
+ `db.longTableScansPerSecond` + + Nombre d'analyses de table longues par seconde. + + + **** + +
+ `db.longTableScansPerTransaction` + + Analyses de tables longues par transaction. + + + **** + +
+ `db.openCursorsPerSecond` + + Curseurs ouverts par seconde. + + + **** + +
+ `db.openCursorsPerTransaction` + + Ouvrir les curseurs par transaction. + + + **** + +
+ `db.osLoad` + + Charge actuelle du système d'exploitation. + + + **** + +
+ `db.parseFailureCountPerSecond` + + Nombre d'échecs d'analyse par seconde. + + + **** + +
+ `db.parseFailureCountPerTransaction` + + Analyser le nombre d'échecs par transaction. + + + **** + +
+ `db.pgaCacheHitPercentage` + + PGA taux d'accès au cache pourcentage. + + + **** + +
+ `db.processLimitPercentage` + + Pourcentage de limite de processus. + + + **** + +
+ `db.recursiveCallsPerSecond` + + Appels récursifs par seconde. + + + **** + +
+ `db.recursiveCallsPerTransaction` + + Appels récursifs par transaction. + + + **** + +
+ `db.redoWritesPerSecond` + + Nombre d'écritures répétées par seconde. + + + **** + +
+ `db.redoWritesPerTransaction` + + Réécrire les écritures par transaction. + + + **** + +
+ `db.responseTimePerTransaction` + + temps de réponse par transaction. + + + **** + +
+ `db.rowCacheHitRatio` + + Taux d'accès au cache ratio. + + + **** + +
+ `db.rowCacheMissRatio` + + Taux d'échec de cache de ligne. + + + **** + +
+ `db.rowsPerSort` + + Lignes par tri. + + + **** + +
+ `db.sessionCount` + + Nombre de sessions. + +
+ `db.sessionLimitPercentage` + + Pourcentage de limite de session. + + + **** + +
+ `db.sharedPoolFreePercentage` + + Pourcentage gratuit de la piscine partagée. + + + **** + +
+ `db.softParseRatio` + + Taux d'analyse souple. + + + **** + +
+ `db.sortsPerUserCall` + + Nombre total de tris par appel utilisateur. + + + **** + +
+ `db.sqlServiceResponseTime` + + Temps de réponse du service SQL. + +
+ `db.streamsPoolUsagePercentage` + + Pourcentage d'utilisation du pool de flux. + + + **** + +
+ `db.tableScansPerUserCall` + + Nombre total d'analyses de table par appel utilisateur. + + + **** + +
+ `db.totalIndexScansPerSecond` + + Nombre total d'analyses d'index par seconde. + +
+ `db.totalIndexScansPerTransaction` + + Nombre total d'analyses d'index par transaction. + + + **** + +
+ `db.totalParseCountPerSecond` + + Nombre total d'analyses par seconde. + + + **** + +
+ `db.totalParseCountPerTransaction` + + Nombre total d'analyses par transaction. + + + **** + +
+ `db.totalTableScansPerSecond` + + Nombre total d'analyses de table par seconde. + +
+ `db.totalTableScansPerTransaction` + + Nombre total d'analyses de table par transaction. + + + **** + +
+ `db.TransactionsPerLogon` + + Transactions par connexion. + + + **** + +
+ `db.userCallsPerSecond` + + Appels utilisateur par seconde. + + + **** + +
+ `db.userCallsPerTransaction` + + Appels utilisateur par transaction. + + + **** + +
+ `db.userCallsRatio` + + ratio d'appels utilisateur. + + + **** + +
+ `db.userCommitsPercentage` + + Pourcentage d'engagements de l'utilisateur. + + + **** + +
+ `db.userCommitsPerSecond` + + Engagements utilisateur par seconde. + + + **** + +
+ `db.userLimitPercentage` + + Pourcentage de limite d'utilisateur. + + + **** + +
+ `db.userRollbacksPercentage` + + Annulations utilisateur par transaction. + + + **** + +
+ `db.userRollbacksPerSecond` + + Annulations utilisateur par seconde. + + + **** + +
+ `db.userRollbackUndoRecordsAppliedPerSecond` + + Enregistrements d'annulation de restauration utilisateur appliqués par seconde. + + + **** + +
+ `db.userRollbackUndoRecordsAppliedPerTransaction` + + Les enregistrements d'annulation de restauration utilisateur sont appliqués par transaction. + + + **** + +
+ `db.waitTimeRatio` + + Ratio de temps d'attente de la base de données. + + + **** + +
+ `db.capturedUserCalls` + + Appels utilisés capturés + + + **** + +
+ `db.executeWithoutParseRatio` + + Exécuter sans ratio d'analyse + + + **** + +
+ `db.logonsPerSecond` + + Connexions par seconde + + + **** + +
+ `db.physicalReadBytesPerSecond` + + Octets lus physiquement par seconde + + + **** + +
+ `db.physicalReadIORequestsPerSecond` + + Requêtes d'E/S de lecture physique par seconde + + + **** + +
+ `db.physicalReadsPerSecond` + + Lectures physiques par seconde + + + **** + +
+ `db.physicalWriteBytesPerSecond` + + Octets d'écritures physiques par seconde + + + **** + +
+ `db.physicalWritesPerSecond` + + Écritures physiques par seconde + + + **** + +
+ `disk.blocksRead` + + Nombre de lectures de blocs. + +
+ `disk.blocksWritten` + + Nombre d'écritures de blocs. + +
+ `disk.logicalReadsPerUserCall` + + Lectures logiques par appel utilisateur. + + + **** + +
+ `disk.physicalLobsReadsPerSecond` + + Les lectures physiques dirigent les lobes par seconde. + + + **** + +
+ `disk.physicalLobsWritesPerSecond` + + Les écritures physiques génèrent des lobes directs par seconde. + + + **** + +
+ `disk.physicalReadBytesPerSecond` + + Nombre total d'octets par seconde en lecture physique. + +
+ `disk.physicalReadIoRequestsPerSecond` + + Lecture physique du nombre total I/O requests par seconde. + +
+ `disk.physicalReadsPerSecond` + + Lectures physiques directes par seconde. + +
+ `disk.physicalWriteBytesPerSecond` + + Nombre total d'octets par seconde en écriture physique. + + + **** + +
+ `disk.physicalWriteIoRequestsPerSecond` + + d'écriture physique par seconde.I/O requests + + + **** + +
+ `disk.physicalWritesPerSecond` + + Écritures physiques directes par seconde. + +
+ `disk.physicalWriteTotalIoRequestsPerSecond` + + Nombre total d'écriture physique I/O requests par seconde. + +
+ `disk.reads` + + Nombre total de lectures physiques. + +
+ `disk.readTimeInMilliseconds` + + Durée de lecture du fichier. + +
+ `disk.sortPerSecond` + + Tri de disque par seconde. + + + **** + +
+ `disk.sortPerTransaction` + + Tri du disque par transaction. + + + **** + +
+ `disk.tempSpaceUsedInBytes` + + Espace temporaire utilisé. + + + **** + +
+ `disk.writes` + + Nombre total d'écritures physiques. + +
+ `disk.writeTimeInMilliseconds` + + Quantité de temps d'écriture du fichier. + +
+ `lockedAccounts` + + Nombre de comptes dont `account_status` n'est pas `OPEN`. + +
+ `longRunningQueries` + + Nombre de requêtes de longue durée (> 60 s). + +
+ `memory.bufferCacheHitRatio` + + Buffer taux d'accès au cache ratio. + +
+ `memory.globalCacheBlocksCorrupted` + + Blocs de cache globaux corrompus. + + + **** + +
+ `memory.globalCacheBlocksLost` + + Blocs de cache globaux perdus. + + + **** + +
+ `memory.pgaAllocatedInBytes` + + Quantité actuelle de mémoire PGA allouée par l'instance. + + + **** + +
+ `memory.pgaFreeableInBytes` + + Taille maximale d'une zone de travail exécutée en mode automatique. + +
+ `memory.pgaFreeableInBytes` + + Nombre d'octets de mémoire PGA dans tous les processus qui pourraient être libérés vers le système d'exploitation. + + + **** + +
+ `memory.pgaInUseInBytes` + + Indique la quantité de mémoire PGA actuellement consommée par les zones de travail. Ce nombre peut être utilisé pour déterminer la quantité de mémoire consommée par d'autres consommateurs de la mémoire PGA (par exemple, PL/SQL ou Java). + + + **** + +
+ `memory.redoAllocationHitRatio` + + Taux de réussite de la réallocation. + + + **** + +
+ `memory.redoGeneratedBytesPerSecond` + + Refaire les octets générés par seconde. + + + **** + +
+ `memory.redoGeneratedBytesPerTransaction` + + Refaire les octets générés par transaction. + + + **** + +
+ `memory.sortsRatio` + + Ratio de tri de la mémoire. + + + **** + +
+ `network.ioMegabytesPerSecond` + + Mégaoctets I/O par seconde. + +
+ `network.ioRequestsPerSecond` + + I/O requests par seconde. + +
+ `network.trafficBytePerSecond` + + Volume de trafic réseau par seconde. + +
+ `query.physicalLobsReadsPerTransaction` + + Les lectures physiques dirigent les lobs par transaction. + + + **** + +
+ `query.physicalLobsWritesPerTransaction` + + Les écritures physiques dirigent les lobs par transaction. + + + **** + +
+ `query.physicalReadsPerTransaction` + + Lectures physiques directes par transaction. + +
+ `query.physicalReadsPerTransaction` + + Lectures physiques par transaction. + + + **** + +
+ `query.physicalWritesPerTransaction` + + Écritures physiques directes par transaction. + +
+ `query.physicalWritesPerTransaction` + + Écritures physiques par transaction. + + + **** + +
+ `query.transactionsPerSecond` + + Transaction utilisateur par seconde. + +
+ `redoLog.logFileSwitch` + + Nombre de redo fichier de log switch événement. + +
+ `redoLog.logFileSwitchArchivingNeeded` + + Nombre de fichiers de log de redo switch événement nécessitant un archivage. + +
+ `redoLog.logFileSwitchCheckpointIncomplete` + + Nombre de points de contrôle d'événement de changement de fichier de log de redo qui sont incomplets. + +
+ `redoLog.waits` + + Nombre d'attentes log de rétablissement. + +
+ `rollbackSegments.gets` + + Nombre de segments de restauration obtenus. + +
+ `rollbackSegments.ratioWait` + + Ratio d'attente pour les segments de restauration. + +
+ `rollbackSegments.waits` + + Nombre de segments de restauration en attente. + +
+ `sga.bufferBusyWaits` + + Nombre d'attentes de tampon SGA occupées. + +
+ `sga.fixedSizeInBytes` + + Taille fixe SGA. + +
+ `sga.freeBufferInspected` + + Nombre de tampons libres SGA inspectés. + +
+ `sga.freeBufferWaits` + + Nombre d'attentes de tampon libre SGA. + +
+ `sga.hitRatio` + + Taux de réussite pour le SGA. + +
+ `sga.logBufferAllocationRetriesRatio` + + Taux de nouvelle tentative d'allocation pour le tampon log SGA. + +
+ `sga.logBufferRedoAllocationRetries` + + Réaliser le taux d'allocation pour le tampon log SGA. + +
+ `sga.logBufferRedoEntries` + + Nombre d'entrées Redo dans le tampon log SGA. + +
+ `sga.logBufferSpaceWaits` + + L'espace tampon attend le tampon log SGA. + +
+ `sga.redoBuffersInBytes` + + Tampons de rétablissement SGA, en octets. + +
+ `sga.sharedPoolDictCacheMissRatio` + + Taux d'échec pour le cache du dictionnaire de pool partagé SGA (dict). + +
+ `sga.sharedPoolLibraryCacheHitRatio` + + Taux de réussite pour le cache de la bibliothèque de pool partagé SGA. + +
+ `sga.sharedPoolLibraryCacheReloadRatio` + + Taux de rechargement pour le cache de la bibliothèque de pool partagé SGA. + +
+ `sga.sharedPoolLibraryCacheShareableMemoryPerStatementInBytes` + + Mémoire cacheable SGA par instruction, en octets. + +
+ `sga.sharedPoolLibraryCacheShareableMemoryPerUserInBytes` + + Mémoire cacheable SGA par utilisateur, en octets. + +
+ `sga.ugaTotalMemoryInBytes` + + Mémoire totale dans la zone utilisateur Global (UGA). + +
+ `sorts.diskInBytes` + + Trie l'utilisation du disque, en octets. + +
+ `sorts.memoryInBytes` + + Trie l'utilisation de la mémoire, en octets. + +
+ +### Métriques de l'espace de table [#tablespace-metric] + +La base de données d'intégration Oracle collecte les métriques de tablespace suivantes. Ces attributs peuvent être trouvés en interrogeant le type d'événement `OracleTablespaceSample` . Veuillez noter que les métriques d'utilisation de l'espace table ne sont pas disponibles pour la base de données de secours en lecture seule - pour en savoir plus sur cette limitation, consultez la base de connaissances Oracle [ici](https://support.oracle.com/knowledge/Enterprise%20Management/2972740_1.html). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description + + Étendu +
+ `tablespace.isOffline` + + Booléen pour l'état hors ligne de l'espace table. + +
+ `tablespace.offlinePDBDatafiles` + + Le nombre de fichiers de données PDB qui sont hors ligne. + +
+ `tablespace.offlineCDBDatafiles` + + Le nombre de fichiers de données CDB qui sont hors ligne. + +
+ `tablespace.pdbDatafilesNonWrite` + + Le nombre de fichiers de données PDB dans un état non inscriptible. + +
+ `tablespace.spaceConsumedInBytes` + + Quantité d'espace table consommée en octets. + + + **** + +
+ `tablespace.spaceReservedInBytes` + + Espace table réservé total en octets. + + + **** + +
+ `tablespace.spaceUsedPercentage` + + Rapport entre l'espace table utilisé et l'espace table total. + +
+ +## Données d'inventaire [#inventory] + +L'intégration de la base de données Oracle capture les paramètres configuration de la base de données Oracle . Les données sont disponibles sur la [page Inventaire](/docs/infrastructure/new-relic-infrastructure/infrastructure-ui-pages/infrastructure-inventory-page-search-your-entire-infrastructure), sous la source **config/oracledb** . Pour en savoir plus sur les données d’inventaire, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations-getting-started/getting-started/understand-integration-data-data-types#inventory-data). + +L'intégration capture les données pour les paramètres de configuration de la base de données Oracle suivants : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `DBFIPS_140` + + Activer l'utilisation de la bibliothèque cryptographique en mode FIPS, publique. +
+ `O7_DICTIONARY_ACCESSIBILITY` + + Prise en charge de l'accessibilité du dictionnaire version 7. +
+ `active_instance_count` + + Nombre d'instances actives dans la base de données cluster . +
+ `adg_account_info_tracking` + + Informations sur le compte utilisateur ADG suivies en veille (`LOCAL`) ou en primaire (`GLOBAL`). +
+ `allow_global_dblinks` + + Recherche LDAP pour DBLINKS. +
+ `allow_group_access_to_sga` + + Autoriser l'accès en lecture pour SGA à l'utilisateur du groupe propriétaire Oracle . +
+ `approx_for_aggregation` + + Remplacez `exact_aggregation` par `approximate_aggregation`. +
+ `approx_for_count_distinct` + + Remplacez `count_distinct` par `approx_count_distinct`. +
+ `approx_for_percentile` + + Remplacez `percentile_*` par `approx_percentile`. +
+ `aq_tm_processes` + + Nombre de gestionnaires de temps AQ pour démarrer. +
+ `archive_lag_target` + + Nombre maximal de secondes de redos que le serveur de secours pourrait perdre. +
+ `asm_diskstring` + + Emplacements des ensembles de disques pour la découverte. +
+ `asm_preferred_read_failure_groups` + + Groupes d'échec de lecture préférés. +
+ `audit_file_dest` + + Répertoire dans lequel les fichiers d'audit doivent résider. +
+ `audit_sys_operations` + + Activer l'audit du système. +
+ `audit_syslog_level` + + Syslog facilité et niveau. +
+ `audit_trail` + + Activer l'audit du système. +
+ `autotask_max_active_pdbs` + + Paramètre pour la maintenance maximale des PDB des tâches automatiques. +
+ `awr_pdb_autoflush_enabled` + + Activer/désactiver le vidage automatique du PDB AWR. +
+ `awr_pdb_max_parallel_slaves` + + Nombre maximal d'esclaves AWR PDB MMON simultanés par instance. +
+ `awr_snapshot_time_offset` + + Paramètre pour le décalage horaire de l'instantané AWR. +
+ `background_core_dump` + + Taille du noyau pour les processus d'arrière-plan. +
+ `background_dump_dest` + + Répertoire de vidage de processus détaché. +
+ `backup_tape_io_slaves` + + Esclaves d'I/O de bande de sauvegarde. +
+ `bitmap_merge_area_size` + + La mémoire maximale permet la fusion de bitmaps. +
+ `blank_trimming` + + Paramètre de sémantique de découpage vide. +
+ `buffer_pool_keep` + + Nombre de blocs/verrous de base de données dans le tampon du pool de conservation. +
+ `buffer_pool_recycle` + + Nombre de blocs/verrous de base de données dans le pool de recyclage tampon. +
+ `cdb_cluster` + + Si `TRUE` démarre en mode cluster CDB. +
+ `cdb_cluster_name` + + Nom du cluster CDB. +
+ `cell_offload_compaction` + + Stratégie de compactage des paquets de cellules. +
+ `cell_offload_decryption` + + Activer le déchargement du traitement SQL des données chiffrées vers les cellules. +
+ `cell_offload_parameters` + + Paramètres de déchargement de cellule supplémentaires. +
+ `cell_offload_plan_display` + + Plan d'affichage explicatif de déchargement de cellule. +
+ `cell_offload_processing` + + Activer le déchargement du traitement SQL vers les cellules. +
+ `cell_offloadgroup_name` + + Définissez le nom du groupe de déchargement. +
+ `circuits` + + Nombre maximal de circuits. +
+ `client_result_cache_lag` + + Délai maximal du cache des résultats du client en millisecondes. +
+ `client_result_cache_size` + + Taille maximale du cache des résultats client en octets. +
+ `clonedb` + + Cloner la base de données. +
+ `clonedb_dir` + + Répertoire CloneDB. +
+ `cluster_database` + + Si `TRUE` démarre en mode base de données cluster. +
+ `cluster_database_instances` + + Nombre d'instances à utiliser pour dimensionner les structures SGA de la base de données cluster . +
+ `cluster_interconnects` + + Interconnexions pour utilisation RAC. +
+ `commit_logging` + + Comportement d'écriture log des transactions. +
+ `commit_point_strength` + + biais que ce nœud a pour habitude de ne pas se préparer dans un commit en deux phases. +
+ `commit_wait` + + Comportement d'attente log de validation des transactions. +
+ `commit_write` + + Comportement d'écriture log des transactions. +
+ `common_user_prefix` + + Appliquer une restriction sur un préfixe d'un `user`, `role` ou `profile` commun. +
+ `compatible` + + La base de données sera entièrement compatible avec cette version du logiciel. +
+ `connection_brokers` + + Spécifications des courtiers en connexion. +
+ `containers_parallel_degree` + + Degré parallèle pour une requête `CONTAINERS()` . +
+ `control_file_record_keep_time` + + Le temps de conservation des enregistrements du fichier de contrôle est exprimé en jours. +
+ `control_files` + + Liste des noms de fichiers de contrôle. +
+ `control_management_pack_access` + + Déclare quels packs de gestion sont activés. +
+ `core_dump_dest` + + Répertoire de vidage de mémoire. +
+ `cpu_count` + + Nombre de CPU pour cette instance. +
+ `create_bitmap_area_size` + + Taille du tampon de création de bitmap pour l'index de bitmap. +
+ `create_stored_outlines` + + Créez des schémas stockés pour les instructions DML. +
+ `cursor_bind_capture_destination` + + Destination autorisée pour les variables de liaison capturées. +
+ `cursor_invalidation` + + Valeur par défaut pour la sémantique d'invalidation du curseur DDL. +
+ `cursor_sharing` + + Mode de partage du curseur. +
+ `cursor_space_for_time` + + Utilisez plus de mémoire afin d'obtenir une exécution plus rapide. +
+ `data_guard_sync_latency` + + Latence de synchronisation du garde des données. +
+ `data_transfer_cache_size` + + Taille du cache de transfert de données. +
+ `db_16k_cache_size` + + Taille du cache pour les tampons de 16 Ko. +
+ `db_2k_cache_size` + + Taille du cache pour les tampons de 2 K. +
+ `db_32k_cache_size` + + Taille du cache pour les tampons de 32 K. +
+ `db_4k_cache_size` + + Taille du cache pour les tampons 4K. +
+ `db_8k_cache_size` + + Taille du cache pour les tampons de 8 Ko. +
+ `db_big_table_cache_percent_target` + + Taille cible du cache de grande table en pourcentage. +
+ `db_block_buffers` + + Nombre de blocs de base de données mis en cache en mémoire. +
+ `db_block_checking` + + Vérification de l'en-tête et vérification des blocs de données et d'index. +
+ `db_block_checksum` + + Stockez la somme de contrôle dans des blocs de base de données et vérifiez pendant les lectures. +
+ `db_block_size` + + Taille du bloc de base de données en octets. +
+ `db_cache_advice` + + Conseil sur la taille du cache tampon. +
+ `db_cache_size` + + Taille du tampon de pool par défaut pour les tampons de taille de bloc standard. +
+ `db_create_file_dest` + + Emplacement de la base de données par défaut. +
+ `db_create_online_log_dest_1` + + Destination logen ligne / fichier de contrôle n°1. +
+ `db_create_online_log_dest_2` + + Destination logen ligne / fichier de contrôle n°2. +
+ `db_create_online_log_dest_3` + + Destination logen ligne / fichier de contrôle n°3. +
+ `db_create_online_log_dest_4` + + Destination logen ligne / fichier de contrôle n°4. +
+ `db_create_online_log_dest_5` + + Destination logen ligne / fichier de contrôle n°5. +
+ `db_domain` + + Partie répertoire du nom de la base de données globale stockée avec `CREATE DATABASE`. +
+ `db_file_multiblock_read_count` + + Bloc DB à lire à chaque I/O. +
+ `db_file_name_convert` + + Le nom du fichier de données convertit les modèles et les chaînes pour la base de données de secours/clone. +
+ `db_files` + + Nombre maximal autorisé de fichiers de base de données. +
+ `db_flash_cache_file` + + Fichier cache Flash pour la taille de bloc par défaut. +
+ `db_flash_cache_size` + + Taille du cache Flash pour `db_flash_cache_file`. +
+ `db_flashback_retention_target` + + Durée maximale de rétention log de données de la base de flashback en minutes. +
+ `db_index_compression_inheritance` + + Options pour l'héritage de compression au niveau de la table ou de l'espace de table. +
+ `db_keep_cache_size` + + Taille du tampon de piscine KEEP pour les tampons de taille de bloc standard. +
+ `db_lost_write_protect` + + Activer la détection d'écriture perdue. +
+ `db_name` + + Nom de la base de données spécifié dans `CREATE DATABASE`. +
+ `db_performance_profile` + + Catégorie de performance de la base de données. +
+ `db_recovery_file_dest` + + Emplacement du fichier de récupération de base de données par défaut. +
+ `db_recovery_file_dest_size` + + Limite de taille des fichiers de récupération de base de données. +
+ `db_recycle_cache_size` + + Taille du tampon de piscine RECYCLE pour les tampons de taille de bloc standard. +
+ `db_securefile` + + Autoriser le stockage sécurisé des fichiers lors de la création du lob. +
+ `db_ultra_safe` + + Définit les valeurs par défaut pour d’autres paramètres qui contrôlent les niveaux de protection. +
+ `db_unique_name` + + Nom unique de la base de données. +
+ `db_unrecoverable_scn_tracking` + + Suivre le SCN nologging dans le fichier de contrôle. +
+ `db_writer_processes` + + Nombre de processus d'écriture de base de données en arrière-plan à démarrer. +
+ `dbwr_io_slaves` + + Esclaves I/O DBWR. +
+ `ddl_lock_timeout` + + Délai d'expiration pour restreindre le temps pendant lequel DDLS attend le verrouillage DML. +
+ `default_sharing` + + Clause de partage par défaut. +
+ `deferred_segment_creation` + + Différer la création du segment jusqu'à la première insertion. +
+ `dg_broker_config_file1` + + Fichier de configuration du courtier Data Guard n°1. +
+ `dg_broker_config_file2` + + Fichier de configuration du courtier Data Guard #2. +
+ `dg_broker_start` + + Démarrer le courtier de protection des données (processus DMON). +
+ `diagnostic_dest` + + Répertoire de base de diagnostic. +
+ `disable_pdb_feature` + + Désactiver la fonctionnalité. +
+ `disk_asynch_io` + + Utilisez I/O asynchrones pour les périphériques à accès aléatoire. +
+ `dispatchers` + + Spécifications des répartiteurs. +
+ `distributed_lock_timeout` + + Nombre de secondes pendant lesquelles une transaction distribuée attend un verrou. +
+ `dml_locks` + + Verrous DML - un pour chaque table modifiée dans une transaction. +
+ `dnfs_batch_size` + + Nombre maximal de requêtes d'I/O asynchrones dNFS mises en file d'attente par session. +
+ `dst_upgrade_insert_conv` + + Active/désactive les conversions internes pendant la mise à niveau de l'heure d'été. +
+ `enable_automatic_maintenance_pdb` + + Activer/désactiver la maintenance automatisée pour les PDB non root. +
+ `enable_ddl_logging` + + Activer le logging ddl. +
+ `enable_dnfs_dispatcher` + + Activer le répartiteur DNFS. +
+ `enable_goldengate_replication` + + Réplication Goldengate activée. +
+ `enable_pluggable_database` + + Activer la base de données enfichable. +
+ `enabled_PDBs_on_standby` + + Liste des modèles PDB activés. +
+ `encrypt_new_tablespaces` + + S'il faut chiffrer les tablespaces nouvellement créés. +
+ `event` + + Contrôle d'événement de débogage - chaîne nulle par défaut. +
+ `exafusion_enabled` + + Activer l'exafusion. +
+ `external_keystore_credential_location` + + Emplacement des informations d'identification du magasin de clés externe. +
+ `fal_client` + + Client FAL. +
+ `fal_server` + + Liste des serveurs FAL. +
+ `fast_start_io_target` + + Limite supérieure des lectures de récupération. +
+ `fast_start_mttr_target` + + Objectif MTTR en secondes. +
+ `fast_start_parallel_rollback` + + Nombre maximal d'esclaves de récupération parallèles pouvant être utilisés. +
+ `file_mapping` + + Activer la modélisation des fichiers. +
+ `fileio_network_adapters` + + Adaptateurs réseau pour I/O de fichiers. +
+ `filesystemio_options` + + Opérations d'E/S sur les fichiers du système de fichiers. +
+ `fixed_date` + + Valeur fixe `SYSDATE` . +
+ `forward_listener` + + Auditeur en avant. +
+ `gcs_server_processes` + + Nombre de processus de serveur gcs en arrière-plan à démarrer. +
+ `global_names` + + Assurez-vous que les liens de base de données ont le même nom que la base de données distante. +
+ `global_txn_processes` + + Nombre de processus de transaction globale en arrière-plan à démarrer. +
+ `hash_area_size` + + Taille de la zone de travail du hacheur en mémoire. +
+ `heat_map` + + Suivi de la carte thermique ILM. +
+ `hi_shared_memory_address` + + Adresse de départ SGA (32 bits d'ordre supérieur sur plateforme 64 bits). +
+ `hs_autoregister` + + Activer les mises à jour automatiques du serveur DD dans l'auto-enregistrement de l'agent HS. +
+ `ifile` + + Inclure le fichier dans `init.Ora`. +
+ `inmemory_adg_enabled` + + Activer la prise en charge IMC sur ADG. +
+ `inmemory_automatic_level` + + Activer la gestion automatique en mémoire. +
+ `inmemory_clause_default` + + Clause en mémoire par défaut pour les nouvelles tables. +
+ `inmemory_expressions_usage` + + Contrôle quelles expressions In-mémoire sont renseignées dans la mémoire. +
+ `inmemory_force` + + Forcer les tables à être en mémoire ou non. +
+ `inmemory_max_populate_servers` + + Nombre maximal de serveurs remplis en mémoire. +
+ `inmemory_optimized_arithmetic` + + Contrôle si les DSB sont ou non stockés en mémoire. +
+ `inmemory_prefer_xmem_memcompress` + + Je préfère stocker les tables avec les niveaux de compression mémoire donnés dans xmem. +
+ `inmemory_prefer_xmem_priority` + + Je préfère stocker les tables avec des niveaux de priorité donnés dans xmem. +
+ `inmemory_query` + + Spécifie si les requêtes en mémoire sont autorisées. +
+ `inmemory_size` + + Taille en octets de la zone en mémoire. +
+ `inmemory_trickle_repopulate_servers_percent` + + Le repeuplement progressif des serveurs en mémoire est en pourcentage. +
+ `inmemory_virtual_columns` + + Contrôle les colonnes virtuelles définies par l'utilisateur qui sont stockées en mémoire. +
+ `inmemory_xmem_size` + + Taille en octets de la zone xmem en mémoire. +
+ `instance_abort_delay_time` + + Temps nécessaire pour retarder un abandon initié en interne (en secondes). +
+ `instance_groups` + + Liste des noms de groupes d'instance . +
+ `instance_mode` + + Indique si l'instance est en lecture seule, en lecture-écriture ou en lecture principale. +
+ `instance_name` + + nom d'instance pris en charge par l'nstance. +
+ `instance_number` + + Numéro d'instance. +
+ `instance_type` + + Type d'instance à exécuter. +
+ `instant_restore` + + Repeuplement instantané des fichiers de données. +
+ `java_jit_enabled` + + Java VM JIT activé. +
+ `java_max_sessionspace_size` + + Taille maximale autorisée en octets d'un espace de session Java. +
+ `java_pool_size` + + Taille en octets du pool Java. +
+ `java_restrict` + + Restreindre l'accès à la machine virtuelle Java. +
+ `java_soft_sessionspace_limit` + + Limite d'avertissement sur la taille en octets d'un espace de session Java. +
+ `job_queue_processes` + + Nombre maximal de processus esclaves dans la file d'attente de travaux. +
+ `large_pool_size` + + Taille en octets du grand pool. +
+ `ldap_directory_access` + + Option d'accès LDAP du SGBDR. +
+ `ldap_directory_sysauth` + + Paramètre d'utilisation OID. +
+ `license_max_sessions` + + Nombre maximum de sessions hors système utilisateur autorisées. +
+ `license_max_users` + + Nombre maximal d'utilisateurs nommés pouvant être créés dans la base de données. +
+ `license_sessions_warning` + + Niveau d'avertissement pour le nombre de sessions utilisateur non système. +
+ `listener_networks` + + Réseaux d'enregistrement des auditeurs. +
+ `local_listener` + + Auditeur local. +
+ `lock_name_space` + + Espace de noms de verrouillage utilisé pour générer des noms de verrouillage pour la base de données de secours/clone. +
+ `lock_sga` + + Verrouillez l'intégralité du SGA dans la mémoire physique. +
+ `log_archive_config` + + configuration de l'archive des logs. +
+ `log_archive_dest` + + Chaîne de texte de destination d'archivage. +
+ `log_archive_dest_1` + + Chaîne de texte de destination d'archivage n°1. +
+ `log_archive_dest_10` + + Chaîne de texte de destination d'archivage n°10. +
+ `log_archive_dest_11` + + Chaîne de texte de destination d'archivage n°11. +
+ `log_archive_dest_12` + + Chaîne de texte de destination d'archivage n°12. +
+ `log_archive_dest_13` + + Chaîne de texte de destination d'archivage n°13. +
+ `log_archive_dest_14` + + Chaîne de texte de destination d'archivage n°14. +
+ `log_archive_dest_15` + + Chaîne de texte de destination d'archivage n°15. +
+ `log_archive_dest_16` + + Chaîne de texte de destination d'archivage n°16. +
+ `log_archive_dest_17` + + Chaîne de texte de destination d'archivage n°17. +
+ `log_archive_dest_18` + + Chaîne de texte de destination d'archivage n°18. +
+ `log_archive_dest_19` + + Chaîne de texte de destination d'archivage n°19. +
+ `log_archive_dest_2` + + Chaîne de texte de destination d'archivage n°2. +
+ `log_archive_dest_20` + + Chaîne de texte de destination d'archivage n° 20. +
+ `log_archive_dest_21` + + Chaîne de texte de destination d'archivage n° 21. +
+ `log_archive_dest_22` + + Chaîne de texte de destination d'archivage n° 22. +
+ `log_archive_dest_23` + + Chaîne de texte de destination d'archivage n° 23. +
+ `log_archive_dest_24` + + Chaîne de texte de destination d'archivage n° 24. +
+ `log_archive_dest_25` + + Chaîne de texte de destination d'archivage n° 25. +
+ `log_archive_dest_26` + + Chaîne de texte de destination d'archivage n° 26. +
+ `log_archive_dest_27` + + Chaîne de texte de destination d'archivage n° 27. +
+ `log_archive_dest_28` + + Chaîne de texte de destination d'archivage n° 28. +
+ `log_archive_dest_29` + + Chaîne de texte de destination d'archivage n° 29. +
+ `log_archive_dest_3` + + Chaîne de texte de destination d'archivage n° 3. +
+ `log_archive_dest_30` + + Chaîne de texte de destination d'archivage n° 30. +
+ `log_archive_dest_31` + + Chaîne de texte de destination d'archivage n° 31. +
+ `log_archive_dest_4` + + Chaîne de texte de destination d'archivage n° 4. +
+ `log_archive_dest_5` + + Chaîne de texte de destination d'archivage n° 5. +
+ `log_archive_dest_6` + + Chaîne de texte de destination d'archivage n° 6. +
+ `log_archive_dest_7` + + Chaîne de texte de destination d'archivage n° 7. +
+ `log_archive_dest_8` + + Chaîne de texte de destination d'archivage n° 8. +
+ `log_archive_dest_9` + + Chaîne de texte de destination d'archivage n° 9. +
+ `log_archive_dest_state_1` + + Chaîne de texte de l'état de destination d'archivage n°1. +
+ `log_archive_dest_state_10` + + Chaîne de texte de l'état de destination d'archivage n°10. +
+ `log_archive_dest_state_11` + + Chaîne de texte de l'état de destination d'archivage n° 11. +
+ `log_archive_dest_state_12` + + Chaîne de texte de l'état de destination d'archivage n° 12. +
+ `log_archive_dest_state_13` + + Chaîne de texte de l'état de destination d'archivage n° 13. +
+ `log_archive_dest_state_14` + + Chaîne de texte de l'état de destination d'archivage n° 14. +
+ `log_archive_dest_state_15` + + Chaîne de texte de l'état de destination d'archivage n° 15. +
+ `log_archive_dest_state_16` + + Chaîne de texte de l'état de destination d'archivage n° 16. +
+ `log_archive_dest_state_17` + + Chaîne de texte de l'état de destination d'archivage n° 17. +
+ `log_archive_dest_state_18` + + Chaîne de texte de l'état de destination d'archivage n° 18. +
+ `log_archive_dest_state_19` + + Chaîne de texte de l'état de destination d'archivage n° 19. +
+ `log_archive_dest_state_2` + + Chaîne de texte de l'état de destination d'archivage n°2. +
+ `log_archive_dest_state_20` + + Chaîne de texte de l'état de destination d'archivage n° 20. +
+ `log_archive_dest_state_21` + + Chaîne de texte de l'état de destination d'archivage n° 21. +
+ `log_archive_dest_state_22` + + Chaîne de texte de l'état de destination d'archivage n° 22. +
+ `log_archive_dest_state_23` + + Chaîne de texte de l'état de destination d'archivage n° 23. +
+ `log_archive_dest_state_24` + + Chaîne de texte de l'état de destination d'archivage n° 24. +
+ `log_archive_dest_state_25` + + Chaîne de texte de l'état de destination d'archivage n° 25. +
+ `log_archive_dest_state_26` + + Chaîne de texte de l'état de destination d'archivage n° 26. +
+ `log_archive_dest_state_27` + + Chaîne de texte de l'état de destination d'archivage n° 27. +
+ `log_archive_dest_state_28` + + Chaîne de texte de l'état de destination d'archivage n° 28. +
+ `log_archive_dest_state_29` + + Chaîne de texte de l'état de destination d'archivage n° 29. +
+ `log_archive_dest_state_3` + + Chaîne de texte de l'état de destination d'archivage n° 3. +
+ `log_archive_dest_state_30` + + Chaîne de texte de l'état de destination d'archivage n° 30. +
+ `log_archive_dest_state_31` + + Chaîne de texte de l'état de destination d'archivage n° 31. +
+ `log_archive_dest_state_4` + + Chaîne de texte de l'état de destination d'archivage n° 4. +
+ `log_archive_dest_state_5` + + Chaîne de texte de l'état de destination d'archivage n° 5. +
+ `log_archive_dest_state_6` + + Chaîne de texte de l'état de destination d'archivage n° 6. +
+ `log_archive_dest_state_7` + + Chaîne de texte de l'état de destination d'archivage n° 7. +
+ `log_archive_dest_state_8` + + Chaîne de texte de l'état de destination d'archivage n° 8. +
+ `log_archive_dest_state_9` + + Chaîne de texte de l'état de destination d'archivage n° 9. +
+ `log_archive_duplex_dest` + + Chaîne de texte de destination d'archivage duplex. +
+ `log_archive_format` + + Format de destination d'archivage. +
+ `log_archive_max_processes` + + Nombre maximal de processus ARCH actifs. +
+ `log_archive_min_succeed_dest` + + Nombre minimum de destinations d’archives qui doivent réussir. +
+ `log_archive_start` + + Démarrer le processus d’archivage lors de l’initialisation SGA. +
+ `log_archive_trace` + + Établir le niveau de tracing des opérations d’archivage. +
+ `log_buffer` + + Refaire la taille du tampon circulaire. +
+ `log_checkpoint_interval` + + Nombre de blocs de rétablissement du seuil du point de contrôle. +
+ `log_checkpoint_timeout` + + Intervalle de temps maximal entre les points de contrôle en secondes. +
+ `log_checkpoints_to_alert` + + enregistrer le début/la fin du point de contrôle dans le fichier d'alerte. +
+ `log_file_name_convert` + + Le nom du fichier log convertit les modèles et les chaînes pour la base de données de secours/clone. +
+ `long_module_action` + + Utilisez un module et une action plus longs. +
+ `max_datapump_jobs_per_pdb` + + Nombre maximal de tâches de pompage de données simultanées par PDB. +
+ `max_dispatchers` + + Nombre maximal de répartiteurs. +
+ `max_dump_file_size` + + Taille maximale (en octets) du fichier de vidage. +
+ `max_idle_time` + + Durée maximale d'inactivité de la session en minutes. +
+ `max_iops` + + I/O MAX par seconde. +
+ `max_mbps` + + MAX Mo par seconde. +
+ `max_pdbs` + + Nombre maximal de pdbs autorisés dans CDB ou Application ROOT. +
+ `max_shared_servers` + + Nombre maximal de serveurs partagés. +
+ `max_string_size` + + Contrôle la taille maximale des types `VARCHAR2`, `NVARCHAR2` et `RAW` dans SQL. +
+ `memoptimize_pool_size` + + Taille du cache pour les tampons imoltp. +
+ `memory_max_target` + + Taille maximale de la cible mémoire. +
+ `memory_target` + + Taille cible de la mémoire Oracle SGA et PGA. +
+ `multishard_query_data_consistency` + + Paramètre de cohérence pour la requête multi-fragments. +
+ `multishard_query_partial_results` + + Activer les résultats partiels pour les requêtes multishard. +
+ `nls_calendar` + + Nom du système de calendrier NLS. +
+ `nls_comp` + + Comparaison NLS. +
+ `nls_currency` + + Symbole de monnaie locale NLS. +
+ `nls_date_format` + + Format de date Oracle NLS. +
+ `nls_date_language` + + Nom de la langue de la date NLS. +
+ `nls_dual_currency` + + Symbole monétaire double. +
+ `nls_iso_currency` + + Nom du territoire de la devise NLS ISO. +
+ `nls_language` + + Nom de la langue NLS. +
+ `nls_length_semantics` + + Créez des colonnes en utilisant la sémantique d'octets ou de caractères par défaut. +
+ `nls_nchar_conv_excp` + + NLS génère une exception au lieu d'autoriser la conversion implicite. +
+ `nls_numeric_characters` + + Caractères numériques NLS. +
+ `nls_sort` + + Nom de définition linguistique NLS. +
+ `nls_territory` + + Nom du territoire NLS. +
+ `nls_time_format` + + Format de l'heure. +
+ `nls_time_tz_format` + + Heure avec format de fuseau horaire. +
+ `nls_timestamp_format` + + Format d'horodatage. +
+ `nls_timestamp_tz_format` + + Horodatage avec format de fuseau horaire. +
+ `noncdb_compatible` + + Non compatible CDB. +
+ `object_cache_max_size_percent` + + Pourcentage de la taille maximale par rapport à la taille optimale du cache d'objets de la session utilisateur. +
+ `object_cache_optimal_size` + + Taille optimale du cache d'objets de la session utilisateur en octets. +
+ `ofs_threads` + + Nombre de threads OFS. +
+ `olap_page_pool_size` + + Taille du pool de pages olap en octets. +
+ `one_step_plugin_for_pdb_with_tde` + + Facilite le plug-in en une étape pour PDB avec des données cryptées TDE. +
+ `open_cursors` + + Nombre maximum de curseurs par session. +
+ `open_links` + + Nombre maximum de liens ouverts par session. +
+ `open_links_per_instance` + + Nombre maximal de liens ouverts par instance. +
+ `optimizer_adaptive_plans` + + Contrôle tous les types de plans adaptatifs. +
+ `optimizer_adaptive_reporting_only` + + Utilisez le mode de création de rapports uniquement pour les optimisations adaptatives. +
+ `optimizer_adaptive_statistics` + + Contrôle tous les types de statistiques adaptatives. +
+ `optimizer_capture_sql_plan_baselines` + + Capture automatique de la base de référence du plan SQL pour les instructions répétables. +
+ `optimizer_dynamic_sampling` + + Échantillonnage dynamique de l'optimiseur. +
+ `optimizer_features_enable` + + Paramètre de compatibilité du plan d'optimisation. +
+ `optimizer_ignore_hints` + + Permet d'ignorer les astuces intégrées. +
+ `optimizer_ignore_parallel_hints` + + Permet d'ignorer les conseils parallèles intégrés. +
+ `optimizer_index_caching` + + Mise en cache de l'index de pourcentage de l'optimiseur. +
+ `optimizer_index_cost_adj` + + Ajustement des coûts de l'indice d'optimisation. +
+ `optimizer_inmemory_aware` + + Optimiseur de conscience des colonnes en mémoire. +
+ `optimizer_mode` + + Mode optimiseur. +
+ `optimizer_secure_view_merging` + + Optimiseur de fusion de vues sécurisées et de déplacement/déplacement de prédicats. +
+ `optimizer_use_invisible_indexes` + + Utilisation d'index invisibles (`TRUE` ou `FALSE`). +
+ `optimizer_use_pending_statistics` + + Contrôlez si vous souhaitez utiliser les statistiques en attente de l'optimiseur. +
+ `optimizer_use_sql_plan_baselines` + + Utilisation du plan SQL de base de référence pour les instructions SQL capturées. +
+ `os_authent_prefix` + + Préfixe pour les comptes de connexion automatique. +
+ `os_roles` + + Récupérer les rôles du système d'exploitation. +
+ `outbound_dblink_protocols` + + Protocoles DBLINK sortants autorisés. +
+ `parallel_adaptive_multi_user` + + Activer le réglage adaptatif du degré pour plusieurs flux d'utilisateurs. +
+ `parallel_degree_limit` + + Limite imposée au degré de parallélisme. +
+ `parallel_degree_policy` + + Politique utilisée pour calculer le degré de parallélisme (`MANUAL`, `LIMITED`, `AUTO` ou `ADAPTIVE`). +
+ `parallel_execution_message_size` + + Taille du tampon de message pour l'exécution parallèle. +
+ `parallel_force_local` + + Forcer l'exécution d'une instance unique. +
+ `parallel_instance_group` + + groupe d'instances à utiliser pour toutes les opérations parallèles. +
+ `parallel_max_servers` + + Nombre maximum de serveurs de requêtes parallèles par instance. +
+ `parallel_min_degree` + + Contrôle le calculateur DOP minimum par DOP automatique. +
+ `parallel_min_percent` + + Pourcentage minimum de threads requis pour une requête parallèle. +
+ `parallel_min_servers` + + Nombre minimum de serveurs de requêtes parallèles par instance. +
+ `parallel_min_time_threshold` + + seuil au-dessus duquel un plan est candidat à la parallélisation (en secondes). +
+ `parallel_servers_target` + + instance cible en termes de nombre de serveurs parallèles. +
+ `parallel_threads_per_cpu` + + Nombre de threads d'exécution parallèles par CPU. +
+ `pdb_file_name_convert` + + Le nom du fichier PDB convertit les modèles et les chaînes pour créer cdb/pdb. +
+ `pdb_lockdown` + + Profil de verrouillage de base de données enfichable. +
+ `pdb_os_credential` + + Informations d'identification du système d'exploitation de base de données enfichable à lier. +
+ `pdb_template` + + Modèle PDB. +
+ `permit_92_wrap_format` + + Autoriser le format wrap 9.2 ou antérieur dans PL/SQL. +
+ `pga_aggregate_limit` + + Limite de la mémoire PGA agrégée pour l'instance ou le PDB. +
+ `pga_aggregate_target` + + Taille cible pour la mémoire PGA agrégée consommée par l'instance. +
+ `plscope_settings` + + Plscope\_settings contrôle la collecte au moment de la compilation, la référence croisée et le stockage de l'identifiant du code source PL/SQL et des données des instructions SQL. +
+ `plsql_ccflags` + + Drapeaux cc PL/SQL. +
+ `plsql_code_type` + + Type de code PL/SQL. +
+ `plsql_debug` + + Débogage PL/SQL. +
+ `plsql_optimize_level` + + Niveau d'optimisation PL/SQL. +
+ `plsql_v2_compatibility` + + Indicateur de compatibilité PL/SQL version 2.X. +
+ `plsql_warnings` + + Paramètres d'avertissements du compilateur PL/SQL. +
+ `pre_page_sga` + + Pré-page sga pour le processus. +
+ `private_temp_table_prefix` + + Préfixe de table temporaire privée. +
+ `processes` + + Processus utilisateur. +
+ `processor_group_name` + + Nom du groupe de processeurs dans lequel cette instance doit s'exécuter. +
+ `query_rewrite_enabled` + + Autoriser la réécriture de la requête à l'aide de vues matérialisées si cette option est activée. +
+ `query_rewrite_integrity` + + Effectuez une réécriture à l’aide de vues matérialisées avec l’intégrité souhaitée. +
+ `rdbms_server_dn` + + Nom distinctif du SGBDR. +
+ `read_only_open_delayed` + + Si `TRUE` retarde l'ouverture des fichiers en lecture seule jusqu'au premier accès. +
+ `recovery_parallelism` + + Nombre de processus serveur à utiliser pour la récupération parallèle. +
+ `recyclebin` + + Traitement de la corbeille. +
+ `redo_transport_user` + + Utilisateur de transport de protection des données lors de l'utilisation d'un fichier de mot de passe. +
+ `remote_dependencies_mode` + + Paramètre de mode de dépendance d'appel de procédure à distance. +
+ `remote_listener` + + Auditeur à distance. +
+ `remote_login_passwordfile` + + Paramètre d'utilisation du fichier de mot de passe. +
+ `remote_os_authent` + + Autoriser les clients distants non sécurisés à utiliser des comptes de connexion automatique. +
+ `remote_os_roles` + + Autoriser les clients distants non sécurisés à utiliser les rôles du système d'exploitation. +
+ `remote_recovery_file_dest` + + Emplacement par défaut du fichier de récupération de base de données distante pour l'actualisation/le déplacement. +
+ `replication_dependency_tracking` + + Suivi de la dépendance pour la propagation parallèle de la réplication. +
+ `resource_limit` + + Interrupteur principal pour la limite des ressources. +
+ `resource_manage_goldengate` + + Gestionnaire de ressources Goldengate activé. +
+ `resource_manager_cpu_allocation` + + Allocation du processeur du gestionnaire de ressources. +
+ `resource_manager_plan` + + Plan supérieur du gestionnaire de ressources. +
+ `result_cache_max_result` + + Taille maximale du résultat en pourcentage de la taille du cache. +
+ `result_cache_max_size` + + Quantité maximale de mémoire à utiliser par le cache. +
+ `result_cache_mode` + + Mode d'utilisation de l'opérateur de cache de résultats. +
+ `result_cache_remote_expiration` + + Durée de vie maximale (min) pour tout résultat utilisant un objet distant. +
+ `resumable_timeout` + + Définir un délai de reprise. +
+ `rollback_segments` + + Annuler la liste des segments. +
+ `sec_case_sensitive_logon` + + Mot de passe sensible à la casse activé pour la connexion. +
+ `sec_max_failed_login_attempts` + + Nombre maximal de tentatives de connexion infructueuses sur une connexion. +
+ `sec_protocol_error_further_action` + + Erreur de protocole TTC, continuer l'action. +
+ `sec_protocol_error_trace_action` + + Action d'erreur de protocole TTC. +
+ `sec_return_server_release_banner` + + Si le serveur renvoie les informations de version complètes. +
+ `serial_reuse` + + Réutiliser les segments du cadre. +
+ `service_names` + + Noms de services pris en charge par l'instance. +
+ `session_cached_cursors` + + Nombre de curseurs à mettre en cache dans une session. +
+ `session_max_open_files` + + Nombre maximum de fichiers ouverts autorisés par session. +
+ `sessions` + + Sessions utilisateur et système. +
+ `sga_max_size` + + Taille totale maximale du SGA. +
+ `sga_min_size` + + Taille minimale et garantie du SGA de la PDB. +
+ `sga_target` + + Taille cible du SGA. +
+ `shadow_core_dump` + + Taille du noyau pour les processus d'ombre. +
+ `shared_memory_address` + + Adresse de départ SGA (32 bits d'ordre faible sur plateforme 64 bits). +
+ `shared_pool_reserved_size` + + Taille en octets de la zone réservée du pool partagé. +
+ `shared_pool_size` + + Taille en octets du pool partagé. +
+ `shared_server_sessions` + + Nombre maximal de sessions de serveur partagées. +
+ `shared_servers` + + Nombre de serveurs partagés à démarrer. +
+ `shrd_dupl_table_refresh_rate` + + Taux de rafraîchissement de la table dupliquée (en secondes). +
+ `skip_unusable_indexes` + + Ignorer les index inutilisables s'ils sont définis sur `TRUE`. +
+ `smtp_out_server` + + Paramètre de configuration du serveur et du port Utl\_smtp. +
+ `sort_area_retained_size` + + Taille de la zone de travail de tri en mémoire conservée entre les appels de récupération. +
+ `sort_area_size` + + Taille de la zone de travail de tri en mémoire. +
+ `spatial_vector_acceleration` + + Activer l'accélération vectorielle spatiale. +
+ `spfile` + + Fichier de paramètres du serveur. +
+ `sql92_security` + + Nécessite un privilège de sélection pour la mise à jour/suppression recherchée. +
+ `sql_trace` + + Activer la trace SQL. +
+ `sqltune_category` + + Qualificateur de catégorie pour l'application d'ensembles d'indices. +
+ `standby_db_preserve_states` + + Préserver la transition entre les rôles de veille et d'état. +
+ `standby_file_management` + + Si c'est automatique, les fichiers sont créés/supprimés automatiquement en veille. +
+ `standby_pdb_source_file_dblink` + + Lien de base de données vers les fichiers sources de secours. +
+ `standby_pdb_source_file_directory` + + Emplacement du répertoire du fichier source de secours. +
+ `star_transformation_enabled` + + Activer l'utilisation de la transformation en étoile. +
+ `statistics_level` + + Niveau statistique. +
+ `streams_pool_size` + + Taille en octets du pool de flux. +
+ `tape_asynch_io` + + Utilisez asynchrones I/O requests pour les périphériques de bande. +
+ `target_pdbs` + + Le paramètre est une indication pour ajuster certains attributs du CDB. +
+ `tde_configuration` + + configuration par PDB pour un chiffrement tata transparent. +
+ `temp_undo_enabled` + + L'annulation temporaire est-elle activée ? +
+ `thread` + + Refaire le filetage pour le montage. +
+ `threaded_execution` + + Mode d'exécution fileté. +
+ `timed_os_statistics` + + Intervalle de collecte des statistiques internes du système d'exploitation en secondes. +
+ `timed_statistics` + + Maintenir des statistiques de chronométrage internes. +
+ `trace_enabled` + + Activer le tracing en mémoire. +
+ `tracefile_identifier` + + identifiant personnalisé du fichier de trace. +
+ `transactions` + + Nombre max. de transactions actives simultanées. +
+ `transactions_per_rollback_segment` + + Nombre de transactions actives par segment de restauration. +
+ `undo_management` + + L'instance s'exécute en mode SMU si `TRUE`, sinon en mode RBU. +
+ `undo_retention` + + Annulez la rétention en quelques secondes. +
+ `undo_tablespace` + + Utiliser/changer l'espace de table d'annulation. +
+ `unified_audit_sga_queue_size` + + Taille de la file d'attente SGA d'audit unifiée. +
+ `unified_audit_systemlog` + + Syslog facilité et niveau pour un audit unifié. +
+ `uniform_log_timestamp_format` + + Utiliser des formats d'horodatage uniformes par rapport aux versions antérieures à la version 12.2 formats. +
+ `use_dedicated_broker` + + Utilisez un courtier de connexion dédié. +
+ `use_large_pages` + + Utilisez de grandes pages si disponibles (`TRUE`, `FALSE` ou `ONLY`). +
+ `user_dump_dest` + + Répertoire de vidage du processus utilisateur. +
+ `version` + + Version de la base de données Oracle. +
+ `xwallet_root` + + Paramètre d'initialisation de l'instance racine du portefeuille. +
+ `workarea_size_policy` + + Politique utilisée pour dimensionner les zones de travail SQL (`MANUAL``AUTO`). +
+
+
+ +## Dépannage [#troubleshoot] + +Conseils de dépannage : + + + + Si monitoring à distance, installez [Oracle Instant Client](https://www.oracle.com/technetwork/topics/linuxx86-64soft-092277.html) et suivez les instructions pour ajouter `libclntsh.so` au chemin de recherche de la bibliothèque partagée. + + Si monitoring à partir de la boîte avec la base de données Oracle installée, installez [Oracle Instant Client](https://www.oracle.com/technetwork/topics/linuxx86-64soft-092277.html) et ajoutez le chemin `ORACLE_HOME/lib` au chemin de recherche `ldconfig`. + + + + ORACLE_HOME + n'est pas réglé correctement + } + > + Cette erreur apparaîtra dans le log sous la forme `[ERR] ORA-01284: Error while trying to retrieve text for error`. + + Pour éviter cette erreur, assurez-vous que `ORACLE_HOME` est correctement défini pour le processus de l'agent. L'agent s'exécute en tant que root, son environnement n'est donc pas le même que celui de l'utilisateur Oracle. + + Pour vérifier ce paramètre, exécutez `cat /proc/$(pgrep newrelic-infra)/environ` pour imprimer les variables d’environnement du processus d’infrastructure, la sortie doit inclure `ORACLE_HOME` si elle est configurée correctement. + + + J'obtiens une erreur + ORA + + } + > + Pour résoudre les erreurs de type `ORA`, reportez-vous à [la liste d'erreurs d'Oracle](https://docs.oracle.com/en/database/oracle/oracle-database/18/errmg/). + + + +## Vérifiez le code source [#source-code] + +Cette intégration est un logiciel open source. Cela signifie que vous pouvez [parcourir son code source](https://github.com/newrelic/nri-oracledb) et envoyer des améliorations, ou créer votre propre fork et le construire. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/perfmon-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/perfmon-integration.mdx new file mode 100644 index 00000000000..d71e3db9f6d --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/perfmon-integration.mdx @@ -0,0 +1,18 @@ +--- +title: Intégration monitoring PerfMon +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: An introduction to New Relic's open-source PerfMon integration. +freshnessValidatedDate: never +translationType: machine +--- + +L'intégration PerfMon fournit les résultats des requêtes et des événements du [moniteur de performances Microsoft](https://docs.microsoft.com/en-us/previous-versions/windows/it-pro/windows-server-2008-R2-and-2008/cc749154\(v%3dws.11\)) vers une sortie standard (stdout) consommable par New Relic. + +Pour commencer, consultez le de [Windows l'intégration PerfMon / WMI sur hôte README](https://github.com/newrelic/nri-perfmon) sur GitHub. + + + Cette intégration est sortie en [open source sur GitHub](https://github.com/newrelic/nri-perfmon). Un log des modifications y est également disponible pour les dernières mises à jour. La prise en charge de cette intégration est disponible avec un [abonnement Expert Services](https://www.newrelic.com/expertservices). + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/port-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/port-monitoring-integration.mdx new file mode 100644 index 00000000000..dfcd48023ab --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/port-monitoring-integration.mdx @@ -0,0 +1,95 @@ +--- +title: Intégration monitoring des ports +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: An introduction to New Relic's open-source port monitoring integration. +freshnessValidatedDate: never +translationType: machine +--- + +Notre intégration monitoring des ports monitore l'état des ports réseau, tels que TCP, UDP, etc., et signale les temps de disponibilité et les données de panne à New Relic. + +Dashboard of the port monitoring integration + + + Cette intégration est sortie en [open source sur Github](https://github.com/newrelic/nri-port-monitor). Un log des modifications y est également disponible pour les dernières mises à jour. + + +## Installer l'intégration [#install] + +Suivez les étapes ci-dessous pour installer l'intégration : + + + + ## Installer l' agent d'infrastructure [#infra-install] + + Pour utiliser l'intégration de monitoring des ports, vous devez d'abord [installer l'agent infrastructure ](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/)sur le même hôte. Toutes nos intégrations sur hôte nécessitent l'agent infrastructure , qui permet d'exposer et de rapporter les métriques à New Relic. + + + + ## Téléchargez et préparez l'intégration [#download] + + 1. Téléchargez et décompressez le fichier tar depuis [le référentiel GitHub](https://github.com/newrelic/nri-port-monitor/releases): + + ```shell + wget https://github.com/newrelic/nri-port-monitor/releases/download/1.3/nri-port-monitor.tar.gz && tar -zxvf nri-port-monitor.tar.gz + ``` + + 2. Copiez le répertoire `bin` avec l'exécutable `nri-port-monitor` dans `/var/db/newrelic-infra/newrelic-integrations`. Faites de même pour le fichier de configuration `port-monitor-definition.yml` : + + ```shell + cp nri-port-monitor/bin/port-monitor /var/db/newrelic-infra/newrelic-integrations/bin/ && cp nri-port-monitor/port-monitor-definition.yml /var/db/newrelic-infra/newrelic-integrations/ + ``` + + 3. Définissez les autorisations d’exécution pour le fichier binaire `nr-port-monitor` afin qu’il puisse s’exécuter correctement : + + ```shell + chmod +x /var/db/newrelic-infra/newrelic-integrations/bin/port-monitor + ``` + + + + ## Configurer l'intégration [#configure-step] + + 1. Déplacer et renommer le fichier de configuration : + + ```shell + cp nri-port-monitor/port-monitor-config.yml.sample /etc/newrelic-infra/integrations.d/port-monitor-config.yml + ``` + + 2. Ouvrez `port-monitor-config.yml` et modifiez la configuration avec toutes les instances de port que vous souhaitez monitorer : + + ```yml + integration_name: com.newrelic.tcp-port-monitor + + instances: + - name: + command: metrics + arguments: + address: localhost:80 + network: tcp + timeout: 5 + labels: + env: prod + ``` + + + + ## Trouvez vos données [#find-data] + + Pour retrouver facilement vos données de monitoring portuaire, téléchargez notre dashboard pré-construit : + + 1. Allez à **[one.newrelic.com](https://one.newrelic.com/)** et cliquez sur **+ Integrations & Agents**. + 2. Cliquez sur l’onglet **Dashboards** . + 3. Dans le champ de recherche, recherchez **Port Monitoring**. + 4. Cliquez sur le dashboard de monitoring des ports pour l'installer. + + Voici un exemple de requête NRQL qui renvoie l’état des ports configurés : + + ```sql + SELECT latest(status) FROM NetworkPortSample FACET address SINCE 30 MINUTES AGO TIMESERIES + ``` + + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/postfix-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/postfix-monitoring-integration.mdx new file mode 100644 index 00000000000..549329b1d70 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/postfix-monitoring-integration.mdx @@ -0,0 +1,391 @@ +--- +title: Intégration de Postfix +tags: + - Postfix integration + - New Relic integrations +metaDescription: Use New Relics infrastructure agent to get a dashboard with metrics from your Postfix application. +freshnessValidatedDate: '2024-03-25T00:00:00.000Z' +translationType: machine +--- + +Notre intégration Postfix consolide les données du serveur de messagerie en une seule vue, afin que vous puissiez suivre le nombre d'e-mails envoyés, renvoyés ou différés sur une période donnée. Notre intégration Postfix utilise notre agent infrastructure et vous offre un dashboard prédéfini avec vos métriques Postfix les plus importantes telles que le processus de livraison des e-mails, la file d'attente des e-mails et l'aperçu des messages. + +Postfix dashboard + +
+ Après avoir configuré notre intégration Postfix, nous vous fournissons un dashboard pour vos métriques Postfix. +
+ +## Configurer l'intégration Postfix + +Suivez les étapes suivantes pour configurer l’intégration Postfix : + + + + ## Installer l' agent d'infrastructure [#infra-install] + + Pour utiliser l'intégration Postfix, vous devez également [installer l'agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L'agent infrastructure monitore l'hôte lui-même, tandis que l'intégration que vous installerez à l'étape suivante étend votre monitoring avec des données spécifiques à Postfix. + + + + ## Exporter les données Postfix [#export] + + Exportez vos métriques Postfix avec `pflogsumm`. L'agent Postfix utilise`pflogsumm` comme analyseur log , qui traduit en données métriques sur votre activité Postfix. Cela vous donne suffisamment de détails pour anticiper les incidents potentiels liés à l’administration du courrier électronique. + + Suivez ces étapes pour utiliser `pflogsumm`. + + 1. Exécutez les commandes suivantes pour télécharger et extraire `pflogsumm`: + + ```shell + wget https://jimsun.linxnet.com/downloads/pflogsumm-1.1.3.tar.gz + ``` + + ```shell + tar xvf pflogsumm-1.1.3.tar.gz + ``` + + 2. Accédez au dossier `pflogsumm` . + + ```shell + cd pflogsumm-*.*.* + ``` + + 3. Copiez le fichier `pflogsumm.pl` dans le chemin `/usr/local/bin/pflogsumm` : + + ```shell + sudo cp pflogsumm.pl /usr/local/bin/pflogsumm + ``` + + 4. Exécutez les commandes `pflogsumm` suivantes pour exporter les métriques Postfix : + + ```shell + cat /var/log/mail.log | pflogsumm + cat /var/log/mail.log | pflogsumm -d today + ``` + + + + ## Configurer NRI-Flex pour Postfix + + Flex, notre outil monitoring indépendant des applications, est fourni avec l'agent New Relic Infrastructure. Suivez ces étapes pour créer un fichier de configuration flexible pour vos données Postfix : + + 1. Créez un fichier nommé `postfix-flex-config.yml`: + + ```shell + touch /etc/newrelic-infra/integrations.d/postfix-flex-config.yml + ``` + + 2. Mettre à jour le fichier `postfix-flex-config.yml`. Nous vous recommandons de travailler à partir de notre exemple de configuration ci-dessous : + + ```yml + --- + integrations: + - name: nri-flex + config: + name: postfixFlex + apis: + #check if Postfix service is up. + - event_type: PostfixUp + commands: + - run: echo "value:$(systemctl status postfix | grep 'Active':' active' | wc -l)" + split_by: ':' + + #check if Postfix service is down. + - event_type: PostfixDown + commands: + - run: echo "value:$(systemctl status postfix | grep 'Active':' active' | wc -l)" + split_by: ':' + + #Read the grand totals messages by using the below script. + - event_type: PostfixGrandTotals + commands: + - run: cat /var/log/mail.log | pflogsumm | grep -A 21 'Grand Totals' + split: horizontal + set_header: [metricValue, message] + regex_match: true + split_by: \s+(\d+\w*)\s+(.*) + + #Read the number of messages delivered & received in bytes. + - event_type: PostfixMessageBytes + commands: + - run: cat /var/log/mail.log | pflogsumm | grep -A 1 'bytes received' + split: horizontal + set_header: [metricValue, messageBytes] + regex_match: true + split_by: \s+(\d+\w*)\s+(.*) + + #Read the number of messages held by the user. + - event_type: PostfixHeldMessage + commands: + - run: echo "value:$(cat /var/mail/ | grep -c 'Subject:')" + split_by: ':' + + #Read the count of SASL authentication failure notifications. + - event_type: PostfixSASLauthFailed + commands: + - run: echo "value:$(cat /var/log/mail.log | grep 'status=deferred (SASL authentication failed' | wc -l)" + split_by: ':' + + #Read the count of bounced non-delivery notifications. + - event_type: PostfixBounceNondeliveryNotification + commands: + - run: echo "value:$(cat /var/log/mail.log | grep 'postfix/bounce' | wc -l)" + split_by: ':' + + #Read the number of messages passed through the email delivery process. + - event_type: PostfixEmailDeliveryProcess + commands: + - run: echo "PICKUPvalue:$(cat /var/log/mail.log | grep 'pickup' | wc -l)" + split_by: ':' + - run: echo "CLEANUPvalue:$(cat /var/log/mail.log | grep 'cleanup' | wc -l)" + split_by: ':' + + #Read the number of message inserted in mail queue. + - event_type: PostfixMessageInsertedinMailQ + commands: + - run: echo "Ivalue:$(cat /var/log/mail.log | grep 'queue active'| wc -l)" + split_by: ':' + + #Read the number of message handled by SMTP process. + - event_type: PostfixMessageHandledBySMTP + commands: + - run: echo "SENTmsg:$(cat /var/log/mail.log | grep 'status=sent' | grep "postfix/smtp" | wc -l)" + split_by: ':' + - run: echo "BOUNCEDmsg:$(cat /var/log/mail.log | grep 'status=bounced' | grep "postfix/smtp" | wc -l)" + split_by: ':' + - run: echo "DEFERREDmsg:$(cat /var/log/mail.log | grep 'status=deferred' | grep "postfix/smtp" | wc -l)" + split_by: ':' + + #Read the number of message removed from mail queue. + - event_type: PostfixMessageRemovedFromMailQ + commands: + - run: echo "Rvalue:$(cat /var/log/mail.log | grep 'removed'| wc -l)" + split_by: ':' + + #Read the number of SMTPD connection. + - event_type: PostfixSMTPDconnection + commands: + - run: echo "value:$(cat /var/log/mail.log | grep ' connect from' | wc -l)" + split_by: ':' + + #Read the number of SMTPD disconnection. + - event_type: PostfixSMTPDdisconnection + commands: + - run: echo "value:$(cat /var/log/mail.log | grep 'disconnect from' | wc -l)" + split_by: ':' + + #Read the number of SMTP connection. + - event_type: PostfixSMTPconnection + commands: + - run: echo "value:$(cat /var/log/mail.log | grep ' connect to' | wc -l)" + split_by: ':' + + #Read the number of SMTP disconnection. + - event_type: PostfixSMTPdisconnection + commands: + - run: echo "value:$(cat /var/log/mail.log | grep 'disconnect to' | wc -l)" + split_by: ':' + + #Read the number of connection timed out. + - event_type: PostfixSMTPDtimedOut + commands: + - run: echo "value:$(cat /var/log/mail.log | grep 'timeout after CONNECT' | wc -l)" + split_by: ':' + + #Read the number of connection lost. + - event_type: PostfixSMTPDconnectionLost + commands: + - run: echo "value:$(cat /var/log/mail.log | grep 'lost connection' | wc -l)" + split_by: ':' + + #Read the per-hour traffic report. + - event_type: PostfixMessagePerHourReport + commands: + - run: cat /var/log/mail.log | pflogsumm -d today | grep -i 'Per-Hour Traffic Summary' -A 27 + split: horizontal + header_split_by: \s+(\w+)\s+(\w+)\s+(\w+)\s+(\w+)\s+(\w+)\s+(.*) + set_header: + [ + time, + received.perhour, + delivered.perhour, + deferred.perhour, + bounced.perhour, + rejected.perhour, + ] + regex_match: true + split_by: \s+(\d+-\d+)\s+(\d+)\s+(\d+)\s+(\d+)\s+(\d+)\s+(\d+) + + #Read the per-day traffic summary. + - event_type: PostfixMessageTrafficPerDay + commands: + - run: cat /var/log/mail.log | pflogsumm --zero_fill | grep -C 12 'Per-Day Traffic Summary' -B 0 -A 8 | sed '/Per-Hour Traffic Daily Average/q' + split: horizontal + header_split_by: \s+(\w+)\s+(\w+)\s+(\w+)\s+(\w+)\s+(\w+)\s+(.*) + set_header: + [date, received, delivered, deferred, bounced, rejected] + regex_match: true + split_by: \s+(\w+\s+\d+\s+\d+)\s+(\d+)\s+(\d+)\s+(\d+)\s+(\d+)\s+(\d+) + + #Read the host/domain summary: message delivery & received. + - event_type: PostfixHostSummary + commands: + - run: cat /var/log/mail.log | pflogsumm | grep -i 'Host/Domain Summary':' Message Delivery' -A 8 | sed -n '2,9p' + split: horizontal + header_split_by: \s+(\w+\s+\w+)\s+(\w+)\s+(\w+)\s+(\w+\s+\w+)\s+(\w+\s+\w+)\s+(.*.) + set_header: + [sentCount, bytesDelivered, defers, avgDaily, maxDaily, host] + regex_match: true + split_by: \s+(\d+)\s+(\d+\w*)\s+(\d+)\s+(\d+.\d+\s+\w)\s+(\d+.\d+\s+\w)\s+(.*) + - run: cat /var/log/mail.log | pflogsumm | grep -A 15 'Host/Domain Summary':' Messages Received' | sed '/Senders by message count/q' + split: horizontal + header_split_by: \s+(\w+\s+\w+)\s+(\w+)\s+(.*.) + set_header: [msgCount, bytesReceived, hostDetail] + regex_match: true + split_by: \s+(\d+)\s+(\d+\w*)\s+(.*) + + #Read the senders & recipients with message count. + - event_type: PostfixSenderRecipientMessageCount + commands: + - run: cat /var/log/mail.log | pflogsumm | grep -C 11 'Senders by message count' -B 1 -A 9 | sed '/Recipients by message count/q' + split: horizontal + header_split_by: (.*.) + set_header: [sender.msgCount, senders] + regex_match: true + split_by: \s+(\d+)\s+(.*) + - run: cat /var/log/mail.log | pflogsumm | grep -C 11 'Recipients by message count' -B 1 -A 9 | sed '/Senders by message size/q' + split: horizontal + header_split_by: (.*.) + set_header: [recipient.msgCount, recipients] + regex_match: true + split_by: \s+(\d+)\s+(.*) + + #Read the daemon message details. + - event_type: PostfixDaemonMessage + commands: + - run: cat /var/log/mail.log | pflogsumm | grep -A 10 'Master daemon messages' + split: horizontal + set_header: [daemon.msgCount, daemonMessage] + regex_match: true + split_by: \s*(\d+)\s+(\w+.*.) + + #Read the message deferral details. + - event_type: PostfixDeferralMessage + commands: + - run: cat /var/log/mail.log | pflogsumm | grep -A 15 'message deferral detail' | sed '/message bounce detail (by relay)/q' + split: horizontal + header_split_by: (\s+\w+\s+.*) + set_header: [deferral.msgCount, deferralMessage] + regex_match: true + split_by: \s*(\d+)\s+(\w+.*.) + + #Read the warning message details. + - event_type: PostfixWarningMessage + commands: + - run: cat /var/log/mail.log | pflogsumm | grep -v 'mail_queue_enter' | grep -C 100 'Warnings' -B 1 -A 10 | sed '/Fatal Errors/q' + split: horizontal + header_split_by: \s+(\w+)\s+(.*) + set_header: [Warning.msgCount, warningMessage] + regex_match: true + split_by: \s*(\d+)\s\s\s(.*.) + + #Read the error message details. + - event_type: PostfixErrorMessage + commands: + - run: cat /var/log/mail.log | pflogsumm | grep -C 15 'Fatal Errors' -B 1 -A 10 | sed '/Panics/q' + split: horizontal + header_split_by: \s+(\w+)\s+(.*) + set_header: [Fatal.msgCount, fatalMessage] + regex_match: true + split_by: \s*(\d+)\s\s\s(.*.) + + #Read the message bounce details. + - event_type: PostfixBounceMessage + commands: + - run: cat /var/log/mail.log | pflogsumm | grep -A 10 'message bounce detail (by relay)' | sed '/message reject detail/q' + split: horizontal + header_split_by: \s+(\w+)\s+(.*) + set_header: [Bounce.msgCount, bounceMessage] + regex_match: true + split_by: \s*(\d+)\s\s\s(.*.) + ``` + + Si vous préférez créer le vôtre, assurez-vous que votre fichier yaml suit le modèle ci-dessus. Modifiez l’attribut suivant selon vos besoins : + + * `EVENT_TYPE`: Une table de base de données New Relic que vous pouvez interroger en utilisant NRQL. + * `COMMAND`:La commande utilisée pour imprimer les métriques sur le terminal. + + + + ## Transférez votre log Postfix vers New Relic + + Suivez ces étapes pour transférer le log Postfix vers New Relic : + + 1. Créez un fichier nommé `logging.yml` dans le répertoire de l’agent d’infrastructure : + + ```shell + touch /etc/newrelic-infra/logging.d/logging.yml + ``` + + 2. Ajoutez le snippet suivant au fichier `logging.yml` : + + ```yml + logs: + - name: mail.log + file: /var/log/mail.log + attributes: + logtype: postfix_maillog + ``` + + + + ## Redémarrer l' agent d'infrastructure [#restart-infra] + + Utilisez les instructions de notre [documentation sur l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/) pour redémarrer votre agent d’infrastructure. Il s’agit d’une commande de base qui devrait fonctionner pour la plupart des gens : + + ```shell + sudo systemctl restart newrelic-infra.service + ``` + + + + ## Rechercher et utiliser des données + + Suivez ces étapes pour utiliser notre modèle dashboard prédéfini pour visualiser facilement vos données Postfix : + + 1. Allez à **[one.newrelic.com](https://one.newrelic.com/)** et cliquez sur **+ Integrations & Agents**. + 2. Cliquez sur l'onglet **Dashboards** . + 3. Dans le champ de recherche, tapez `Postfix`. + 4. Lorsque vous voyez notre dashboard pré-construit, cliquez dessus pour l'installer sur votre compte. + + Votre dashboard Postfix est un dashboard personnalisé. Accédez-y depuis l'UI **Dashboards**. Pour obtenir des documents sur l'utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + Pour en savoir plus sur la recherche et l’utilisation de vos données, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). Voici quelques exemples de requêtes NRQL pour les données Postfix : + + + + ```sql + SELECT * + FROM PostfixGrandTotals + ``` + + + + ````sql + SELECT * + FROM PostfixMessagePerHourReport + ``` + + ```` + + + + + +## Quelle est la prochaine étape ? + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/postgresql/postgresql-config.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/postgresql/postgresql-config.mdx new file mode 100644 index 00000000000..e1fac5f0c11 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/postgresql/postgresql-config.mdx @@ -0,0 +1,358 @@ +--- +title: Paramètres de configuration de l'intégration PostgreSQL +tags: + - Integrations + - On-host integrations + - Advanced configuration +metaDescription: New Relic's PostgreSQL monitoring integration's advanced configuration +freshnessValidatedDate: never +translationType: machine +--- + +Cette intégration est un logiciel open source. Cela signifie que vous pouvez [parcourir son code source](https://github.com/newrelic/nri-postgresql) et envoyer des améliorations, ou créer votre propre fork et le construire. + +### Paramètres de l'instance PostgreSQL [#instance-settings] + +L'intégration PostgreSQL collecte à la fois les informations Métriques (**M**) et Inventaire (**I**). La colonne **Applies To** du tableau suivant indique les paramètres qui peuvent être utilisés pour chaque collection spécifique : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + S'applique à +
+ `HOSTNAME` + + Le nom d'hôte pour la connexion PostgreSQL. La valeur par défaut est localhost. + + MI +
+ `PORT` + + Le port sur lequel PostgreSQL s'exécute. La valeur par défaut est 5432. + + MI +
+ `USERNAME` + + Le nom d'utilisateur pour la connexion PostgreSQL. **Required.** + + MI +
+ `PASSWORD` + + Le mot de passe pour la connexion PostgreSQL. **Required.** + + MI +
+ `COLLECTION_LIST` + + Éventail JSON, un objet JSON ou la chaîne littérale `ALL` qui spécifie l'entité à collecter. L'utilisateur PostgreSQL ne peut collecter que les métriques de table et d'index des tables pour lesquelles il dispose des autorisations `SELECT` . + + Obligatoire, sauf pour `PgBouncer`. + + + Ceci ne s'applique pas aux requêtes personnalisées configurées avec `CUSTOM_METRICS_QUERY` ou `CUSTOM_METRICS_CONFIG`. + + + Pour obtenir de l’aide, consultez ces [exemples](/docs/infrastructure/host-integrations/host-integrations-list/postgresql/postgresql-integration#examples). + + M +
+ `COLLECTION_IGNORE_DATABASE_LIST` + + Éventail JSON de noms de bases de données qui seront ignorés pour la collecte des métriques. Généralement utile dans les cas où `COLLECTION_LIST` est défini sur `ALL` et certaines bases de données doivent être ignorées. La valeur par défaut est `[]`. + + + Ceci ne s'applique pas aux requêtes personnalisées configurées avec `CUSTOM_METRICS_QUERY` ou `CUSTOM_METRICS_CONFIG`. + + + M +
+ `PGBOUNCER` + + Collectez `pgbouncer` métriques. La valeur par défaut est `false`. + + M +
+ `ENABLE_SSL` + + Détermine si SSL est activé. Si `true`, `ssl_cert_location` et `ssl_key_location` sont obligatoires. La valeur par défaut est `false`. + + MI +
+ `TRUST_SERVER_CERTIFICATE` + + Si `true`, le certificat du serveur n'est pas vérifié pour SSL. Si `false`, le certificat du serveur identifié dans `ssl_root_cert_location` est vérifié. La valeur par défaut est `false`. + + MI +
+ `SSL_ROOT_CERT_LOCATION` + + Chemin absolu vers le fichier de certificat racine codé PEM. Obligatoire si `trust_server_certificate` est `false`. + + MI +
+ `SSL_CERT_LOCATION` + + Chemin absolu vers le fichier de certificat client codé en PEM. Obligatoire si `enable_ssl` est `true`. + + MI +
+ `SSL_KEY_LOCATION` + + Chemin absolu vers le fichier de clé client codé en PEM. Obligatoire si `enable_ssl` est `true`. + + MI +
+ `TIMEOUT` + + Temps d'attente maximal pour la connexion, en secondes. Définissez sur `0` pour aucun délai d'expiration. La valeur par défaut est 10. + + MI +
+ `DATABASE` + + La base de données PostgreSQL à laquelle se connecter. La valeur par défaut est `postgres`. + + MI +
+ `CUSTOM_METRICS_QUERY` + + La requête SQL qui nécessite `columns metric_name`, `metric_type` et `metric_value.metric_type` peut être `gauge`, `rate`, `delta` ou `attribute`. Les colonnes supplémentaires collectées avec la requête sont ajoutées à l'ensemble métrique en tant qu'attribut. + + M +
+ `CUSTOM_METRICS_CONFIG` + + Un chemin vers un fichier YAML avec une liste de requêtes personnalisées, ainsi que leur type métrique, leur base de données et leurs remplacements de nom d'échantillon. Voir les [exemples](/docs/infrastructure/host-integrations/host-integrations-list/postgresql/postgresql-integration#examples) pour plus de détails. + + M +
+ `COLLECT_DB_LOCK_METRICS` + + Activez la collecte des métriques de verrouillage de la base de données, ce qui peut nécessiter beaucoup de performances. La valeur par défaut est `false`. + + M +
+ `COLLECT_BLOAT_METRICS` + + Activez les métriques de gonflement de l'espace table, qui peuvent être gourmandes en performances. La valeur par défaut est `true`. + + M +
+ `METRICS` + + Définissez sur `true` pour activer la collecte Métriques uniquement. La valeur par défaut est `false`. + +
+ `INVENTORY` + + Définissez sur `true` pour activer la collecte d’inventaire uniquement. La valeur par défaut est `false`. + +
+ +Les valeurs de ces paramètres peuvent être définies de plusieurs manières : + +* Ajout de la valeur directement dans le fichier de configuration. C'est la manière la plus courante. + +* Remplacement des valeurs des variables d’environnement à l’aide de la notation `{{ }}` . En savoir plus sur [l'utilisation des passthroughs de variables d'environnement avec l'intégration sur hôte](/docs/infrastructure/install-infrastructure-agent/configuration/configure-infrastructure-agent/#passthrough) ou voir l'exemple de [remplacement des variables d'environnement](/docs/infrastructure/host-integrations/host-integrations-list/elasticsearch/elasticsearch-integration#envvar-replacement). Cela nécessite l'agent d'infrastructure v1.14.0+. + +* Utilisation de la gestion des secrets. Utilisez ceci pour protéger les informations sensibles, telles que les mots de passe qui seraient exposés en texte brut dans le fichier de configuration. Pour plus d'informations, voir [gestion des secrets](/docs/integrations/host-integrations/installation/secrets-management). + +### Libellés et attribut personnalisé [#labels] + +Les variables d'environnement peuvent être utilisées pour contrôler les paramètres de configuration, tels que votre , et sont ensuite transmises à l'agent d'infrastructure. Pour obtenir des instructions sur l’utilisation de cette fonctionnalité, consultez [Configurer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/configuration/configure-infrastructure-agent). + +Vous pouvez également décorer vos métriques à l’aide d’étiquettes. Les étiquettes vous permettent d'ajouter des paires valeur-clé à vos métriques que vous pouvez ensuite utiliser pour interroger, filtrer ou regrouper vos métriques. + +Notre fichier de configuration par défaut inclut des exemples d'étiquettes mais, comme elles ne sont pas obligatoires, vous pouvez supprimer, modifier ou en ajouter de nouvelles de votre choix : + +```yml + labels: + env: production + role: postgresql +``` + +## Données d'inventaire [#inventory] + +L'intégration PostgreSQL collecte chaque paramètre de `pg_settings` ainsi que ses `boot_val` et `reset_val`. Les [données d’inventaire de l’infrastructure](/docs/infrastructure/integrations-getting-started/getting-started/understand-integration-data-data-types#inventory-data) apparaissent sur la [page Inventaire](/docs/infrastructure/new-relic-infrastructure/infrastructure-ui-pages/infrastructure-inventory-page-search-your-entire-infrastructure), sous la source `config/postgresql` . + +## Dépannage [#troubleshooting] + +Voici quelques conseils de dépannage pour l’intégration PostgreSQL : + +* Si vous rencontrez des problèmes de connexion, assurez-vous que vous pouvez vous connecter au cluster depuis la même box avec `psql`. +* Si vous rencontrez des problèmes lors de la collecte des métriques `PgBouncer` , assurez-vous d'être connecté à l'instance via `PgBouncer`. Le port par défaut est `6432`. +* Si vous obtenez le message d'erreur `Error creating list of entities to collect: pq: unsupported startup parameter: extra_float_digits`, définissez `ignore_startup_parameters = extra_float_digits` dans le fichier de configuration `PgBouncer` . \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/postgresql/postgresql-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/postgresql/postgresql-integration.mdx new file mode 100644 index 00000000000..9c04a768c92 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/postgresql/postgresql-integration.mdx @@ -0,0 +1,1322 @@ +--- +title: Intégration monitoring PostgreSQL +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: 'New Relic''s PostgreSQL integration: how to install it and configure it, and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +L'[intégration New Relic PostgreSQL sur hôte](/docs/integrations/host-integrations/getting-started/introduction-host-integrations) reçoit et envoie les métriques d'inventaire de votre instance PostgreSQL à la plateforme New Relic, où vous pouvez agréger et visualiser les métriques de performance clés. Les données provenant de l'instance, de la base de données et du cluster vous aident à trouver la source des problèmes. + +Pour installer l'intégration monitoring PostgreSQL, vous devez suivre les étapes suivantes : + +1. [Installer et activer l'intégration](#install). +2. [Configurer l'intégration](#config). +3. [PostgreSQL utilisateur et autorisations](#create-user). +4. [Rechercher et utiliser des données](#find-and-use). +5. En option, consultez [les paramètres de configuration de PostgreSQL](/docs/infrastructure/host-integrations/host-integrations-list/postgresql/postgresql-config). + + + Pour de meilleurs résultats, mettez régulièrement [à jour le package d'intégration](/docs/integrations/host-integrations/installation/update-infrastructure-host-integration-package) et [l'agent d'infrastructure](/docs/infrastructure/new-relic-infrastructure/installation/update-infrastructure-agent). + + +## Compatibilité et exigences [#req] + +### Versions de PostgreSQL [#postgresql-versions] + +Notre intégration est compatible avec PostgreSQL v17 et inférieur. + +### Services gérés pris en charge [#supported-ms] + +* Amazon RDS +* Azure flexible + +### Système d'exploitation pris en charge [#supported-os] + +* WindowsWindows +* LinuxLinux + +Pour une liste complète des versions spécifiques Windows et Linux, consultez le tableau des [systèmes d'exploitation compatibles](/docs/infrastructure/install-infrastructure-agent/get-started/requirements-infrastructure-agent/#operating-systems). + +### exigences système [#system-reqs] + +* Un compte New Relic. Vous n'en avez pas ? [Inscrivez-vous gratuitement !](https://newrelic.com/signup) Aucune carte de crédit requise. + +* Si PostgreSQL ne s'exécute pas sur Kubernetes ou Amazon ECS, vous pouvez [installer l'agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic) sur un hôte Linux ou Windows OS ou sur un hôte capable d'accéder à distance à l'endroit où PostgreSQL est installé. Sinon: + + * Si vous exécutez surKubernetesKubernetes, voir [ces exigences](/docs/monitor-service-running-kubernetes#requirements). + * Si vous exécutez surECSAmazon ECS, consultez [ces exigences](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). + +## Installer et activer l'intégration [#install] + +Pour installer l'intégration PostgreSQL, suivez les instructions adaptées à votre environnement. + +### Installation de Linux [#linux] + +1. Installez [l'agent d'infrastructure](/docs/integrations/host-integrations/installation/install-infrastructure-host-integrations/#install) et remplacez la variable `INTEGRATION_FILE_NAME` par `nri-postgresql`. + +2. Changez de répertoire pour accéder au dossier configuration de l'intégration en exécutant : + + ```shell + cd /etc/newrelic-infra/integrations.d + ``` + +3. [Créez un utilisateur](#create-user) avec des autorisations `READ` sur les fonctions requises. + +4. Copiez l’exemple de fichier de configuration en exécutant : + + ```shell + sudo cp postgresql-config.yml.sample postgresql-config.yml + ``` + +5. Modifiez le fichier de configuration `postgresql-config.yml` avec votre éditeur préféré. Découvrez quelques [exemples de fichiers de configuration.](#examples). + +6. Pour activer l'analyse et la transmission automatiques de Postgresql, copiez ou renommez le fichier `postgresql-log.yml.example` en `postgresql-log.yml`. Vous n'avez pas besoin de redémarrer l'agent mais vous devrez peut-être mettre à jour le fichier YML avec l'emplacement de votre fichier de log postgresql, si vous n'utilisez pas les emplacements par défaut. + + Par exemple: + + ````shell + sudo cp /etc/newrelic-infra/logging.d/postgresql-log.yml.example /etc/newrelic-infra/logging.d/postgresql-log.yml + ``` + ```` + +### Autres environnements [#other-env] + + + Windows installation + } + > + 1. Téléchargez l'image du programme d'installation `nri-postgresql` .MSI depuis : + + [https://download.newrelic.com/infrastructure\_agent/windows/integrations/nri-postgresql/nri-postgresql-amd64.msi](https://download.newrelic.com/infrastructure_agent/windows/integrations/nri-postgresql/nri-postgresql-amd64.msi) + + 2. Pour installer à partir de l’invite de commande Windows, exécutez : + + ```shell + msiexec.exe /qn /i PATH\TO\nri-postgresql-amd64.msi + ``` + + 3. Dans le répertoire d’intégration, `C:\Program Files\New Relic\newrelic-infra\integrations.d\`, créez une copie du fichier configuration d’exemple en exécutant : + + ```shell + cp postgresql-config.yml.sample postgresql-config.yml + ``` + + 4. Modifiez le fichier `postgresql-config.yml` comme décrit dans [les fichiers d'exemple postgresql-config.yml](#examples). + + + + Amazon ECS installation{' '} Installation d'Amazon ECS + + } + > + Voir [le service de monitoring exécuté sur ECS](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). + + + Kubernetes installation + } + > + Voir [le service de monitoring exécuté sur Kubernetes](/docs/monitor-service-running-kubernetes). + + + +Notes supplémentaires : + +* **Advanced:** les intégrations sont également disponibles au [formattarball ](/docs/integrations/host-integrations/installation/install-host-integrations-built-new-relic#tarball)pour permettre une installation en dehors d'un gestionnaire de paquets. +* **On-host integrations do not automatically update.** Pour de meilleurs résultats, mettez régulièrement [à jour le package d'intégration](/docs/integrations/host-integrations/installation/update-infrastructure-host-integration-package) et [l'agent d'infrastructure](/docs/infrastructure/new-relic-infrastructure/installation/update-infrastructure-agent). + + + +## Configurer l'intégration [#config] + +Il existe plusieurs façons de configurer l'intégration, selon la manière dont vous l'avez installée : + +* Si activé viaKubernetesKubernetes, voir [services de monitoring exécutés sur Kubernetes](/docs/monitor-service-running-kubernetes). +* Si activé viaECSAmazon ECS, voir [les services de monitoring exécutés sur ECS](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). +* Si installé sur l'hôte, modifiez la configuration dans le fichier de configuration YAML de l'intégration, `postgresql-config.yml`. La configuration au format YAML d'une intégration est l'endroit où vous pouvez placer les informations de connexion requises et configurer la manière dont les données sont collectées. Les options que vous modifiez dépendent de votre configuration et de vos préférences. Le fichier configuration contient des paramètres communs applicables à toutes les intégrations, tels que `interval`, `timeout`, `inventory_source`. Pour tout savoir sur ces paramètres courants, reportez-vous à notre document [Format de configuration](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-newer-configuration-format/#configuration-basics) . + + + Si vous utilisez toujours nos legacy fichiers configuration ou de définition, vérifiez le [format configuration standard](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format/). + + +Les paramètres spécifiques liés à PostgreSQL sont définis à l'aide de la section `env` du fichier de configuration. Ces paramètres contrôlent la connexion à votre instance PostgreSQL ainsi que d'autres paramètres et fonctionnalités de sécurité. La liste des paramètres valides est décrite dans la section suivante de ce document. + +## PostgreSQL utilisateur et autorisations [#create-user] + +Créez un utilisateur avec des autorisations `SELECT` sur : + +* `pg_stat_database` +* `pg_stat_database_conflicts` +* `pg_stat_bgwriter` + +Pour créer l’utilisateur pour l’intégration PostgreSQL : + +```sql +CREATE USER new_relic WITH PASSWORD MY_PASSWORD; +GRANT SELECT ON pg_stat_database TO new_relic; +GRANT SELECT ON pg_stat_database_conflicts TO new_relic; +GRANT SELECT ON pg_stat_bgwriter TO new_relic; +``` + +Cela permettra à l'intégration de collecter des métriques globales liées à l'instance PostgreSQL. + +Si vous souhaitez également obtenir des métriques liées aux tables et aux index (par exemple, la taille de la table et la taille de l'index), le rôle PostgreSQL utilisé par l'intégration (`new_relic`) a également besoin des autorisations `SELECT` sur les tables à partir desquelles il collectera les métriques. Par exemple, pour permettre à l'intégration de collecter des métriques de toutes les tables et index présents dans la base de données (dans le `schema` public), utilisez ce qui suit : + +```sql +GRANT SELECT ON ALL TABLES IN SCHEMA public TO new_relic; +``` + +Si vous souhaitez également obtenir des métriques au niveau de la requête à partir du fichier de configuration de requête personnalisée PostgreSQL, le rôle PostgreSQL utilisé par l'intégration (`new_relic`) doit être ajouté au rôle (`pg_read_all_stats`). Cela est dû au fait que l'utilisateur utilise l'extension (`pg_stat_statements`). + +```sql +GRANT pg_read_all_stats TO new_relic; +``` + +L'activation de l'extension `pg_stat_statements` peut nécessiter de la créer manuellement à partir d'une prompt de requête : + +```sql +CREATE EXTENSION pg_stat_statements; +``` + +### Fichiers d'exemple postgresql-config.yml [#examples] + + + + * Éventail JSON : interprété comme une liste de noms de bases de données à partir de laquelle collecter toutes les métriques pertinentes, y compris les tables et index appartenant à cette base de données. + + Par exemple: + + ```yml + collection_list: '["postgres"]' + ``` + + * Objet JSON : seule l'entité spécifiée dans l'objet sera collectée, aucune découverte automatique ne sera effectuée. Les niveaux de JSON sont `database name -> schema name -> table name -> index name`. + + Par exemple: + + ```yml + collection_list: '{"postgres":{"public":{"pg_table1":["pg_index1","pg_index2"],"pg_table2":[]}}}' + ``` + + * `ALL`: collectez des métriques pour toutes les bases de données, schémas, tables et index découverts. + + Par exemple: + + ```yml + collection_list: 'ALL' + ``` + + ```yml + integrations: + - name: nri-postgresql + env: + USERNAME: postgres + PASSWORD: pass + HOSTNAME: psql-sample.localnet + PORT: 6432 + DATABASE: postgres + + COLLECT_DB_LOCK_METRICS: false + COLLECTION_LIST: '{"postgres":{"public":{"pg_table1":["pg_index1","pg_index2"],"pg_table2":[]}}}' + TIMEOUT: 10 + interval: 15s + labels: + env: production + role: postgresql + inventory_source: config/postgresql + ``` + + + + * Options Azure/AWS SSL activées : les offres de base de données gérées Azure Flexible nécessitent SSL pour se connecter. AWS RDS/Aurora peut nécessiter SSL si votre version MySQL est 5.7+ et que require\_secure\_transport est défini sur ON dans votre groupe de paramètres Aurora. Pour répondre aux exigences SSL, ces paramètres dans postgresql-config.yml doivent être définis sur `true`. + + Par exemple: + + ```yml + ENABLE_SSL: "true" + TRUST_SERVER_CERTIFICATE: "true" + ``` + + * Options de désactivation SSL Azure/AWS : en plus des paramètres ci-dessus, les paramètres SSL suivants doivent être placés en commentaire ou supprimés de la configuration. Cela est dû au fait que la configuration fait confiance au certificat du serveur ci-dessus. + + Par exemple: + + ```yml + # SSL_ROOT_CERT_LOCATION: /etc/newrelic-infra/root_cert.crt + # SSL_CERT_LOCATION: /etc/newrelic-infra/postgresql.crt + # SSL_KEY_LOCATION: /etc/newrelic-infra/postgresql.key + ``` + + * Résumé : Une fois ces paramètres définis, le fichier de configuration Azure/AWS complet doit ressembler à celui ci-dessous. Remarque : l'agent d'infrastructure et l'intégration Postgresql doivent être installés sur un hôte avec accès réseau à l'instance de base de données. + + Par exemple: + + ```yml + integrations: + - name: nri-postgresql + env: + USERNAME: newrelic + PASSWORD: password + HOSTNAME: AWS-or-Azure-instance-name + PORT: 5432 + DATABASE: postgres + COLLECT_DB_LOCK_METRICS: false + COLLECTION_LIST: 'ALL' + ENABLE_SSL: "true" + TRUST_SERVER_CERTIFICATE: "true" + # SSL_ROOT_CERT_LOCATION: /etc/newrelic-infra/root_cert.crt + # SSL_CERT_LOCATION: /etc/newrelic-infra/postgresql.crt + # SSL_KEY_LOCATION: /etc/newrelic-infra/postgresql.key + TIMEOUT: 10 + interval: 15s + labels: + env: production + role: postgresql + inventory_source: config/postgresql + ``` + + + + ```yml + integrations: + - name: nri-postgresql + env: + USERNAME: postgres + PASSWORD: pass + HOSTNAME: psql-sample.localnet + PORT: 6432 + DATABASE: postgres + + COLLECT_DB_LOCK_METRICS: false + COLLECTION_LIST: '["postgres"]' + ENABLE_SSL: true + TRUST_SERVER_CERTIFICATE: false + SSL_ROOT_CERT_LOCATION: /etc/newrelic-infra/root_cert.crt + SSL_CERT_LOCATION: /etc/newrelic-infra/postgresql.crt + SSL_KEY_LOCATION: /etc/newrelic-infra/postgresql.key + TIMEOUT: 10 + interval: 15s + labels: + env: production + role: postgresql + inventory_source: config/postgresql + ``` + + + + ```yml + integrations: + - name: nri-postgresql + env: + USERNAME: postgres + PASSWORD: pass + HOSTNAME: psql-sample.localnet + PORT: 6432 + DATABASE: postgres + + COLLECT_DB_LOCK_METRICS: false + COLLECTION_LIST: ALL + CUSTOM_METRICS_QUERY: >- + select + 'rows_inserted' as "metric_name", + 'delta' as "metric_type", + sd.tup_inserted as "metric_value", + sd.datid as "database_id" + from pg_stat_database sd; + TIMEOUT: 10 + interval: 15s + labels: + env: production + role: postgresql + inventory_source: config/postgresql + ``` + + + + Un fichier de configuration YAML supplémentaire avec un ou plusieurs SQL personnalisés peut être défini et l'intégration aura besoin du chemin d'accès au fichier dans le paramètre CUSTOM\_METRICS\_CONFIG. + + * postgresql-config.yml + + ```yml + integrations: + - name: nri-postgresql + env: + USERNAME: postgres + PASSWORD: pass + HOSTNAME: psql-sample.localnet + PORT: 6432 + DATABASE: postgres + + COLLECT_DB_LOCK_METRICS: false + COLLECTION_LIST: ALL + CUSTOM_METRICS_CONFIG: "path/to/postgresql-custom-query.yml" + TIMEOUT: 10 + interval: 15s + labels: + env: production + role: postgresql + inventory_source: config/postgresql + ``` + + * postgresql-custom-query.yml + + ```yml + --- + queries: + + # Metric names are set to the column names in the query results + - query: >- + SELECT + BG.checkpoints_timed AS scheduled_checkpoints_performed, + BG.checkpoints_req AS requested_checkpoints_performed, + BG.buffers_checkpoint AS buffers_written_during_checkpoint, + BG.buffers_clean AS buffers_written_by_background_writer, + BG.maxwritten_clean AS background_writer_stops, + BG.buffers_backend AS buffers_written_by_backend, + BG.buffers_alloc AS buffers_allocated + FROM pg_stat_bgwriter BG; + + # database defaults to the auth database in the main config + database: new_frontier_config_dev + + # If not set explicitly here, metric type will default to + # 'gauge' for numbers and 'attribute' for strings + metric_types: + buffers_allocated: rate + + # If unset, sample_name defaults to PostgresqlCustomSample + sample_name: MyCustomSample + ``` + + + +Pour en savoir plus sur la structure générale de l'intégration sur hôte configuration, voir [configuration](/docs/integrations/integrations-sdk/file-specifications/host-integration-configuration-overview). + +## Options de configuration pour l'intégration [#config-options] + +Pour en savoir plus sur la recherche et l'utilisation de vos données, consultez [les paramètres de configuration de PostgreSQL](/docs/infrastructure/host-integrations/host-integrations-list/postgresql/postgresql-config). + +## Rechercher et utiliser des données [#find-and-use] + +Les données de ce service sont signalées à un [dashboard d'intégration](/docs/integrations/new-relic-integrations/getting-started/infrastructure-integration-dashboards-charts). + +Les Métriques sont attachées à ces [types d'événements](/docs/using-new-relic/data/understand-data/new-relic-data-types#events-new-relic): + +* [Exemples de métriques de la base de données Postgresql](#databaseSample) +* [PostgresqlIndexSample métriques](#indexSample) +* [PostgresqlInstanceSample métriques](#instanceSample) +* [PostgresqlTableSample métriques](#tableSample) +* [PgBouncerÉchantillons métriques](#pgBouncerSample) + +Vous pouvez [interroger ces données](/docs/using-new-relic/data/understand-data/query-new-relic-data) à des fins de dépannage ou pour créer des graphiques et des dashboards personnalisés. + +Pour en savoir plus sur la recherche et l'utilisation de vos données, consultez comment [comprendre les données d'intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## Métriques collectées par l'intégration [#metrics] + +L'intégration PostgreSQL collecte les métriques suivantes. Certains noms métriques sont préfixés par un indicateur de catégorie et un point, tels que `db.` ou `index.`. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut PostgreSQLDatabaseSample + + Description +
+ `db.connections` + + Nombre de backend actuellement connectés à cette base de données. +
+ `db.maxconnections` + + Le nombre maximal de connexions simultanées au serveur de base de données. +
+ `db.commitsPerSecond` + + Transactions validées par seconde. +
+ `db.rollbacksPerSecond` + + Transactions annulées par seconde. +
+ `db.readsPerSecond` + + Nombre de blocs de disque lus dans cette base de données par seconde. +
+ `db.bufferHitsPerSecond` + + Nombre de fois où des blocs de disque ont déjà été trouvés dans le cache tampon, de sorte qu'une lecture n'était pas nécessaire. Cela inclut uniquement les hits dans le cache tampon PostgreSQL, pas dans le cache système de fichiers du système d'exploitation. +
+ `db.rowsReturnedPerSecond` + + Lignes renvoyées par requête par seconde. +
+ `db.rowsFetchedPerSecond` + + Lignes récupérées par requête par seconde. +
+ `db.rowsInsertedPerSecond` + + Lignes insérées par seconde. +
+ `db.rowsUpdatedPerSecond` + + Lignes mises à jour par seconde. +
+ `db.rowsDeletedPerSecond` + + Lignes supprimées par seconde. +
+ `db.conflicts.tablespacePerSecond` + + Nombre de requêtes dans cette base de données qui ont été annulées en raison de tablespaces supprimés. +
+ `db.conflicts.locksPerSecond` + + Nombre de requêtes dans cette base de données qui ont été annulées en raison de délais de verrouillage. +
+ `db.conflicts.snapshotPerSecond` + + Nombre de requêtes dans cette base de données qui ont été annulées en raison d'anciens snapshots. +
+ `db.conflicts.bufferpinPerSecond` + + Nombre de requêtes dans cette base de données qui ont été annulées en raison de tampons épinglés. +
+ `db.conflicts.deadlockPerSecond` + + Nombre de requêtes dans cette base de données qui ont été annulées en raison de blocages. +
+ `db.tempFilesCreatedPerSecond` + + Nombre de fichiers temporaires créés par requête dans cette base de données. Tous les fichiers temporaires sont comptés, quelle que soit la raison pour laquelle le fichier temporaire a été créé (par exemple, pour le tri ou le hachage) et quel que soit le paramètre `log_temp_files` . +
+ `db.tempWrittenInBytesPerSecond` + + Quantité totale de données écrites dans des fichiers temporaires par requête dans cette base de données. Tous les fichiers temporaires sont comptés, quelle que soit la raison pour laquelle le fichier temporaire a été créé et quel que soit le paramètre `log_temp_files` . +
+ `db.deadlocksPerSecond` + + Nombre de blocages détectés dans cette base de données. +
+ `db.readTimeInMillisecondsPerSecond` + + Temps passé à lire les blocs de fichiers de données par le backend dans cette base de données, en millisecondes. +
+ `db.writeTimeInMillisecondsPerSecond` + + Temps passé à écrire des blocs de fichiers de données par le backend dans cette base de données, en millisecondes. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut PostgreSQLIndexSample + + Description +
+ `index.sizeInBytes` + + La taille d'un index. +
+ `index.rowsReadPerSecond` + + Le nombre d'entrées d'index renvoyées par les analyses sur cet index. +
+ `index.rowsFetchedPerSecond` + + Le nombre d'entrées d'index récupérées par les analyses sur cet index. +
+
+ + + + Avec PostgreSQL v17, nous avons renommé certaines métriques pour mieux refléter leurs tables sources. Vous pouvez voir les noms mis à jour en retrait sous leurs versions antérieures. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut PostgreSQLInstanceSample + + Description +
+ `bgwriter.checkpointsScheduledPerSecond`
↳ `checkpointer.checkpointsScheduledPerSecond` +
+ Nombre de points de contrôle planifiés qui ont été effectués. +
+ `bgwriter.checkpointsRequestedPerSecond`
↳ `checkpointer.checkpointsRequestedPerSecond` +
+ Nombre de points de contrôle demandés qui ont été effectués. +
+ `bgwriter.buffersWrittenForCheckpointsPerSecond`
↳ `checkpointer.buffersWrittenForCheckpointsPerSecond` +
+ Nombre de tampons écrits pendant les points de contrôle. +
+ `bgwriter.buffersWrittenByBackgroundWriterPerSecond` + + Nombre de tampons écrits par le rédacteur en arrière-plan. +
+ `bgwriter.backgroundWriterStopsPerSecond` + + Nombre de fois où le rédacteur en arrière-plan a arrêté une analyse de nettoyage car il avait écrit trop de tampons. +
+ `bgwriter.buffersWrittenByBackendPerSecond`
↳ `io.buffersWrittenByBackendPerSecond` +
+ Nombre de tampons écrits directement par un backend. +
+ `bgwriter.buffersAllocatedPerSecond` + + Nombre de tampons alloués. +
+ `bgwriter.backendFsyncCallsPerSecond`
↳ `io.backendFsyncCallsPerSecond` +
+ Nombre de fois qu'un backend a dû exécuter son propre appel `fsync` . Normalement, le rédacteur en arrière-plan les gère même lorsque le backend effectue sa propre écriture. +
+ `bgwriter.checkpointWriteTimeInMillisecondsPerSecond`
↳ `checkpointer.checkpointWriteTimeInMillisecondsPerSecond` +
+ Durée totale passée dans la partie du traitement du point de contrôle où les fichiers sont écrits sur le disque, en millisecondes. +
+ `bgwriter.checkpointSyncTimeInMillisecondsPerSecond`
↳ `checkpointer.checkpointSyncTimeInMillisecondsPerSecond` +
+ Durée totale passée dans la partie du traitement du point de contrôle où les fichiers sont synchronisés sur le disque, en millisecondes. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut PostgreSQLTableSample + + Description +
+ `table.totalSizeInBytes` + + L'espace disque total utilisé par la table, y compris les index et les données TOAST. +
+ `table.indexSizeInBytes` + + L'espace disque total utilisé par les index attachés à la table spécifiée. +
+ `table.liveRows` + + Nombre de lignes actives. +
+ `table.deadRows` + + Nombre de lignes mortes. +
+ `table.indexBlocksReadPerSecond` + + Le nombre de blocs de disque lus à partir de tous les index de cette table. +
+ `table.indexBlocksHitPerSecond` + + Le nombre de hits de tampon dans tous les index de cette table. +
+ `table.indexToastBlocksReadPerSecond` + + Le nombre de blocs de disque lus à partir de l'index de table TOAST de cette table. +
+ `table.indexToastBlocksHitPerSecond` + + Le nombre de hits de mémoire tampon dans l'index de table TOAST de cette table. +
+ `table.lastVacuum` + + Heure du dernier vide sur la table. +
+ `table.lastAutoVacuum` + + Heure du dernier vide automatique sur la table. +
+ `table.lastAnalyze` + + Heure de la dernière analyse sur la table. +
+ `table.lastAutoAnalyze` + + Heure de la dernière analyse automatique sur la table. +
+ `table.sequentialScansPerSecond` + + Nombre d'analyses séquentielles lancées sur cette table par seconde. +
+ `table.sequentialScanRowsFetchedPerSecond` + + Nombre de lignes actives récupérées par des analyses séquentielles par seconde. +
+ `table.indexScansPerSecond` + + Nombre d'analyses d'index lancées sur cette table. +
+ `table.indexScanRowsFetchedPerSecon` + + Nombre de lignes actives récupérées par les analyses d'index. +
+ `table.rowsInsertedPerSecond` + + Lignes insérées par seconde. +
+ `table.rowsUpdatedPerSecond` + + Lignes mises à jour par seconde. +
+ `table.rowsDeletedPerSecond` + + Lignes supprimées par seconde. +
+ `table.bloatSizeInBytes` + + Taille du gonflement en octets. +
+ `table.dataSizeInBytes` + + Taille de l'espace disque utilisé par la fourche principale de la table. +
+ `table.bloatRatio` + + Fraction de la taille des données du tableau qui est gonflée. +
+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Attribut PgBouncerSample + + Description +
+ `pgbouncer.stats.transactionsPerSecond` + + Le taux de transaction. +
+ `pgbouncer.stats.queriesPerSecond` + + Le taux de requête. +
+ `pgbouncer.stats.bytesInPerSecond` + + Le trafic réseau total reçu. +
+ `pgbouncer.stats.bytesOutPerSecond` + + Le trafic réseau total envoyé. +
+ `pgbouncer.stats.totalTransactionDurationInMillisecondsPerSecond` + + Temps passé par `pgbouncer` dans la transaction. +
+ `pgbouncer.stats.totalQueryDurationInMillisecondsPerSecond` + + Temps passé par `pgbouncer` à interroger activement PostgreSQL. +
+ `pgbouncer.stats.avgTransactionCount` + + Le nombre moyen de transactions par seconde au cours de la dernière période de statistiques. +
+ `pgbouncer.stats.avgTransactionDurationInMilliseconds` + + La durée moyenne d'une transaction. +
+ `pgbouncer.stats.avgQueryCount` + + Le nombre moyen de requêtes par seconde au cours de la dernière période de statistiques. +
+ `pgbouncer.stats.avgBytesIn` + + Le trafic réseau client reçu. +
+ `pgbouncer.stats.avgBytesOut` + + Le trafic réseau client a été envoyé. +
+ `pgbouncer.stats.avgQueryDurationInMilliseconds` + + La durée moyenne d'une requête. +
+ `pgbouncer.pools.clientConnectionsActive` + + Connexions client liées à la connexion serveur et capables de traiter les requêtes. +
+ `pgbouncer.pools.clientConnectionsWaiting` + + Connexions client en attente d'une connexion serveur. +
+ `pgbouncer.pools.clientConnectionsWaitingCancelReq` + + Connexions client qui n’ont pas encore transmis les annulations de requête au serveur. +
+ `pgbouncer.pools.clientConnectionsActiveCancelReq` + + Connexions client qui ont transmis des annulations de requête au serveur et attendent la réponse du serveur. +
+ `pgbouncer.pools.serverConnectionsActiveCancel` + + Connexions au serveur qui transmettent actuellement une demande d'annulation. +
+ `pgbouncer.pools.serverConnectionsBeingCancel` + + Serveurs qui pourraient normalement devenir inactifs mais qui attendent de le faire jusqu'à ce que toutes requests d'annulation en cours qui ont été envoyées pour annuler une requête sur ce serveur soient terminées. +
+ `pgbouncer.pools.serverConnectionsActive` + + Connexions serveur liées à une connexion client. +
+ `pgbouncer.pools.serverConnectionsIdle` + + Les connexions au serveur sont inactives et prêtes pour une requête client. +
+ `pgbouncer.pools.serverConnectionsUsed` + + Les connexions au serveur sont inactives plus de `server_check_delay`, nécessitant `server_check_query`. +
+ `pgbouncer.pools.serverConnectionsTested` + + Les connexions au serveur s'exécutent actuellement sur `server_reset_query` ou `server_check_query`. +
+ `pgbouncer.pools.serverConnectionsLogin` + + Connexions au serveur actuellement en cours de connexion. +
+ `pgbouncer.pools.maxwaitInMilliseconds` + + Âge de la plus ancienne connexion client non desservie. +
+
+
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/powerdns-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/powerdns-monitoring-integration.mdx new file mode 100644 index 00000000000..114fc3ea661 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/powerdns-monitoring-integration.mdx @@ -0,0 +1,813 @@ +--- +title: Intégration monitoring PowerDNS +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: 'New Relic''s PowerDNS integration: how to enable, configure it, and an explanation of what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + + + Nous travaillons toujours sur cette fonctionnalité, mais nous aimerions que vous l'essayiez ! + + Cela s'applique uniquement aux versions à partir de la sortie [0.0.5](https://github.com/newrelic/newrelic-prometheus-exporters-packages/releases/tag/nri-powerdns-0.0.5) en octobre 2021. + + Cette fonctionnalité est actuellement fournie dans le cadre d'un programme d'aperçu conformément à nos [politiques de pré-sortie](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy). + + +Notre [intégration](/docs/integrations/host-integrations/getting-started/introduction-host-integrations) PowerDNS collecte et envoie des métriques dimensionnelles à partir de [PowerDNS](https://www.powerdns.com). Vous pouvez afficher ces [données métriques](#metrics) dans un dashboard prédéfini, créer une règle d'alerte et créer des requêtes et des graphiques personnalisés. + +Lisez la suite pour installer l’intégration et voir quelles données nous collectons. + +## Compatibilité et exigences [#req] + +Notre intégration est compatible avec PowerDNS Recursor et Authoritative Server. + +Avant d’installer l’intégration, assurez-vous que vous répondez aux exigences suivantes : + +* [Installez l'agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic), version minimale 1.19.2. +* Distribution Linux [compatible avec l'agent d'infrastructure](/docs/infrastructure/new-relic-infrastructure/getting-started/compatibility-requirements-new-relic-infrastructure#operating-systems). + +Pour obtenir des données de infrastructure PowerDNS, notre intégration PowerDNS utilise un [exportateurPrometheus ](https://github.com/janeczku/powerdns_exporter)tiers, qui expose les métriques Prometheus sur le port spécifié dans la configuration. L'intégration collecte ces métriques, les transforme en entité, les filtre, puis les envoie à New Relic. + +Pour activer l'API, le serveur Web et l'API HTTP doivent être activés. + +Ajoutez ces lignes au pdns.conf : + +``` +api=yes +api-key=changeme +``` + +Et redémarrez, les exemples suivants devraient commencer à fonctionner : + +``` +curl -v -H 'X-API-Key: changeme' http://127.0.0.1:8081/api/v1/servers/localhost | jq . +curl -v -H 'X-API-Key: changeme' http://127.0.0.1:8081/api/v1 +``` + +Pour plus d'informations, [Activation du serveur Web et de l'API](https://doc.powerdns.com/authoritative/http-api/index.html) + +## Installer et activer [#install] + +Pour installer l'intégration PowerDNS, choisissez votre configuration : + + + + 1. Installez [l'agent d'infrastructure](/docs/integrations/host-integrations/installation/install-infrastructure-host-integrations/#install) et remplacez la variable `INTEGRATION_FILE_NAME` par `nri-powerdns`. + + 2. Changez le répertoire vers le dossier d'intégration : + + ``` + cd /etc/newrelic-infra/integrations.d + ``` + + 3. Copie du fichier de configuration d'exemple : + + ``` + sudo cp powerdns-config.yml.sample powerdns-config.yml + ``` + + 4. Modifiez le fichier `powerdns-config.yml` comme décrit dans les [paramètres de configuration](#config). + + + + Vous pouvez également [installer l'intégration à partir d'un fichier tarball](/docs/integrations/host-integrations/installation/install-host-integrations-built-new-relic#tarball). Cela vous donne un contrôle total sur le processus d'installation et de configuration. + + + + + +## Configurer l'intégration [#config] + +Pour configurer l'intégration, modifiez la configuration dans le fichier de configuration YAML de l'intégration `powerdns-config.yml`. + +Utilisez la configuration YAML pour placer les informations de connexion requises et configurer la manière dont vos données sont collectées, en fonction de votre configuration et de vos préférences. + +Étant donné que cette intégration est basée sur un exportateur Prometheus, les paramètres applicables à d'autres intégrations, comme `interval`, `timeout` ou `inventory_source` ne sont pas pris en charge. + +## Paramètres de l'instance PowerDNS [#instance-settings] + +Les options de configuration suivantes sont disponibles : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut +
+ + **powerdns\_url** + + + URL de l'API du service powerdns + + N/A +
+ + **exporter\_port** + + + Port sur lequel exposer le point de terminaison scrape, si celui-ci n'est pas fourni, un port aléatoire sera utilisé pour lancer l'exportateur + + port aléatoire +
+ + **scrape\_timeout** + + + Délai avant l'expiration d'une demande de scraping + + 5s +
+ + **api\_key** + + + clé API utilisée pour se connecter au serveur PowerDNS + + N/A +
+ +## Exemple de configuration [#examples] + + + + Il s'agit de la configuration de base utilisée pour collecter des métriques à partir d'une instance faisant autorité et d'une instance récursive : + + ``` + integrations: + - name: nri-powerdns + config: + api_key: authoritative-secret + exporter_port: 9121 + powerdns_url: http://localhost:8081/api/v1/ + - name: nri-powerdns + config: + api_key: recursor-secret + exporter_port: 9122 + powerdns_url: http://localhost:8082/api/v1/ + ``` + + + +## Rechercher et utiliser des données [#find-and-use] + +Pour en savoir plus sur la recherche et l’utilisation de vos données, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +Les métriques sont attachées aux [types d'échantillons et d'événements](/docs/using-new-relic/data/understand-data/new-relic-data-types#events-new-relic) métriques des entités `POWERDNS_AUTHORITATIVE` et `POWERDNS_RECURSOR`. Vous pouvez [interroger ces données](/docs/using-new-relic/data/understand-data/query-new-relic-data) à des fins de dépannage ou pour créer [des graphiques et des dashboards personnalisés](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/). + +## données métriques [#metrics] + +Deux entités sont créées : `POWERDNS_AUTHORITATIVE` et `POWERDNS_RECURSOR`. + +Les métriques dimensionnelles suivantes sont capturées en scrapant l'exportateur et liées à l'entité `POWERDNS_AUTHORITATIVE`: + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description + + Dimensions +
+ `powerdns_authoritative_uptime (count)` + + temps de disponibilité en secondes du daemon. + + * type +
+ `powerdns_authoritative_packet_cache_size (gauge)` + + Nombre d'entrées dans le cache de paquets. + +
+ `powerdns_authoritative_recursive_queries_total (count)` + + Nombre total de requêtes récursives par statut. + + * statut +
+ `powerdns_authoritative_remote_queries (count)` + + Adresses IP des serveurs distants. + + * télécommande +
+ `powerdns_authoritative_security_status (gauge)` + + État de sécurité du serveur PDNS basé sur `security-status.secpoll.powerdns.com`. + +
+ `powerdns_authoritative_exceptions_total (count)` + + Nombre total d'exceptions par erreur. + + * erreur +
+ `powerdns_authoritative_latency_average_seconds (gauge)` + + Nombre moyen de microsecondes qu'un paquet passe dans PowerDNS. + +
+ `powerdns_authoritative_dnsupdate_queries_total (count)` + + Nombre total de requêtes de mise à jour DNS par statut. + + * statut +
+ `powerdns_authoritative_qsize (gauge)` + + Nombre de paquets en attente d'attention de la base de données. + +
+ `powerdns_authoritative_response_rcodes (count)` + + Distribution des rcodes. + + * rcode +
+ `powerdns_authoritative_signature_cache_size (gauge)` + + Nombre d'entrées dans le cache de signatures. + +
+ `powerdns_authoritative_queries_unauth (count)` + + requête pour un domaine pour lequel nous ne sommes pas compétents. + + * enregistrer +
+ `powerdns_authoritative_answers_bytes_total (count)` + + Nombre total d'octets de réponse envoyés par le protocole. + + * proto +
+ `powerdns_authoritative_queries (count)` + + Requête UDP reçue. + + * enregistrer +
+ `powerdns_authoritative_exporter_json_parse_failures (count)` + + Nombre d'erreurs lors de l'analyse des statistiques JSON PowerDNS. + +
+ `powerdns_authoritative_deferred_cache_actions (count)` + + Actions de cache différées en raison de maintenance par type. + + * type +
+ `powerdns_authoritative_up (gauge)` + + Le dernier scraping de PowerDNS a réussi. + +
+ `powerdns_authoritative_query_cache_lookup (count)` + + Recherches dans le cache de requêtes par résultat. + + * résultat +
+ `powerdns_authoritative_key_cache_size (gauge)` + + Nombre d'entrées dans le cache de clés. + +
+ `powerdns_authoritative_answers_total (count)` + + Nombre total de réponses par protocole. + + * proto +
+ `powerdns_authoritative_packet_cache_lookup (count)` + + Recherches de cache de paquets par résultat. + + * résultat +
+ `powerdns_authoritative_metadata_cache_size (gauge)` + + Nombre d'entrées dans le cache de métadonnées. + +
+ `powerdns_authoritative_queries_total (count)` + + Nombre total de requêtes par protocole. + + * proto +
+ `powerdns_authoritative_cpu_utilisation (count)` + + Nombre de millisecondes CPU passées dans l'espace utilisateur et dans l'espace noyau. + + * type +
+ `powerdns_authoritative_dnssec (count)` + + Compteurs DNSSEC. + + * type +
+ `powerdns_authoritative_response_sizes (count)` + + Répartition des tailles des réponses. + + * taille +
+ `powerdns_authoritative_exporter_total_scrapes (count)` + + Nombre total actuel de scrapings PowerDNS. + +
+ `powerdns_authoritative_remote_queries_unauth (count)` + + Hôtes distants interrogeant un domaine pour lequel nous ne faisons pas autorité. + + * télécommande +
+ +Les métriques dimensionnelles suivantes sont capturées en scrapant l'exportateur et liées à l'entité `POWERDNS_RECURSOR`: + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description + + Dimensions +
+ `powerdns_recursor_incoming_queries_total (count)` + + Nombre total de requêtes entrantes par réseau. + + * net +
+ `powerdns_recursor_outgoing_queries_total (count)` + + Nombre total de requêtes sortantes par réseau. + + * net +
+ `powerdns_recursor_cache_size (gauge)` + + Nombre d'entrées dans le cache. + +
+ `powerdns_recursor_cache_lookups_total (count)` + + Nombre total de recherches de cache par résultat. + + * résultat +
+ `powerdns_recursor_exporter_json_parse_failures (count)` + + Nombre d'erreurs lors de l'analyse des statistiques JSON PowerDNS. + +
+ `powerdns_recursor_answers_rcodes_total (count)` + + Nombre total de réponses par code de réponse. + + * rcode +
+ `powerdns_recursor_exporter_total_scrapes (count)` + + Nombre total actuel de scrapings PowerDNS. + +
+ `powerdns_recursor_concurrent_queries (gauge)` + + Nombre de requêtes concurrentes. + +
+ `powerdns_recursor_answers_rtime_total (count)` + + Nombre total de réponses regroupées par tranches de temps de réponse. + + * plage horaire +
+ `powerdns_recursor_latency_average_seconds (gauge)` + + Moyenne mobile exponentielle du temps de latence entre la question et la réponse. + +
+ `powerdns_recursor_exceptions_total (count)` + + Nombre total d'exceptions par erreur. + + * erreur +
+ `powerdns_recursor_response_time_seconds_sum (count)` + + histogramme du temps de réponse du récurseur PowerDNS en secondes. (somme métrique) + +
+ `powerdns_recursor_response_time_seconds_bucket (count)` + + histogramme du temps de réponse du récurseur PowerDNS en secondes. (métrique du godet) + + * le +
+ `powerdns_recursor_up (gauge)` + + Le dernier scraping de PowerDNS a réussi. + +
+ +## Vérifiez le code source [#source-code] + +Cette intégration est un logiciel open source. Cela signifie que vous pouvez [parcourir son code source](https://github.com/newrelic/newrelic-prometheus-exporters-packages) et envoyer des améliorations, ou créer votre propre fork et le construire. + +De plus, cette intégration s'appuie sur un exportateur open source créé par la communauté. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/ray-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/ray-integration.mdx new file mode 100644 index 00000000000..84af1c4742a --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/ray-integration.mdx @@ -0,0 +1,158 @@ +--- +title: Intégration de rayons +tags: + - Ray integration + - New Relic integrations +metaDescription: Install our Ray dashboards and see your ray data in New Relic. +freshnessValidatedDate: never +translationType: machine +--- + +Notre intégration Ray monitore les performances de votre Ray, vous aidant à diagnostiquer et à optimiser le cluster Ray, les tâches ML telles que le prétraitement des données, la formation distribuée, le réglage des hyperparamètres, l'apprentissage par renforcement et la mise en service du modèle et la mise à l'échelle des applications Python . Notre intégration Ray utilise notre agent infrastructure et NRI-Prometheus vous offre un dashboard prédéfini avec vos métriques Ray les plus importantes. + +Ray dashboard + +
+ Après avoir configuré l'intégration avec New Relic, visualisez vos données dans un dashboard comme celui-ci, dès la sortie de la boîte. +
+ + + + ## Installer l' agent d'infrastructure + + Pour utiliser l’intégration Ray, vous devez d’abord [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L'agent infrastructure monitore l'hôte lui-même, tandis que l'intégration Ray étend votre monitoring avec des données spécifiques au cluster Ray. + + + + ## Installer l'intégration Prometheus + + 1. Téléchargez la dernière sortie Prometheus depuis la [page de téléchargementPrometheus ](https://prometheus.io/download/). Sélectionnez la version appropriée à votre système d'exploitation et à votre architecture. Pour Linux, vous choisirez probablement la version linux-amd64. Copiez le lien de téléchargement du fichier tarball (fichier `.tar.gz` ). + + 2. Une fois Prometheus téléchargé, extrayez le fichier tar de téléchargement : + + ```shell + tar -xvzf + ``` + + 3. Accédez au dossier Prometheus extrait et exécutez la commande ci-dessous pour démarrer le service Prometheus : + + ```shell + cd /DOWNLOADED-FOLDER/ + ``` + + ```shell + ./prometheus --config.file=/tmp/ray/session_latest/metrics/prometheus/prometheus.yml + ``` + + 4. Lorsque Prometheus démarre, il fonctionne sur le port 9090. Accédez à l'interface Web Prometheus , sélectionnez `Status` et cliquez sur la cible souhaitée pour afficher les URL du point de terminaison Ray métriques, comme indiqué ci-dessous : `http://YOUR_DOMAIN:64415/metrics, http://YOUR_DOMAIN:44217/metrics, http://YOUR_DOMAIN:44227/metrics` + + + + ## Configure `nri-prometheus` [#configure] + + 1. Créez un fichier nommé `nri-prometheus-config.yml` dans le chemin suivant : + + ```shell + /etc/newrelic-infra/integrations.d + ``` + + 2. Ajoutez le snippet suivant à votre fichier `nri-prometheus-config.yml` qui permet à l’agent de capturer les données Ray : + + ```yml + integrations: + - name: nri-prometheus + config: + standalone: false + # Defaults to true. When standalone is set to `false`, `nri-prometheus` requires an infrastructure agent to send data. + emitters: infra-sdk + # When running with infrastructure agent emitters will have to include infra-sdk + cluster_name: Ray_Metrics + # Match the name of your cluster with the name seen in New Relic. + targets: + - description: Ray_Metrics + urls: ["http://:64747/metrics", "http://:44217/metrics", "http://:44227/metrics"] + # tls_config: + # ca_file_path: "/etc/etcd/etcd-client-ca.crt" + # cert_file_path: "/etc/etcd/etcd-client.crt" + # key_file_path: "/etc/etcd/etcd-client.key" + verbose: false + # Defaults to false. This determines whether or not the integration should run in verbose mode. + audit: false + # Defaults to false and does not include verbose mode. Audit mode logs the uncompressed data sent to New Relic and can lead to a high log volume. + # scrape_timeout: "YOUR_TIMEOUT_DURATION" + # `scrape_timeout` is not a mandatory configuration and defaults to 30s. The HTTP client timeout when fetching data from endpoints. + scrape_duration: "5s" + # worker_threads: 4 + # `worker_threads` is not a mandatory configuration and defaults to `4` for clusters with more than 400 endpoints. Slowly increase the worker thread until scrape time falls between the desired `scrape_duration`. Note: Increasing this value too much results in huge memory consumption if too many metrics are scraped at once. + insecure_skip_verify: false + # Defaults to false. Determins if the integration should skip TLS verification or not. + timeout: 10s + ``` + + + + ## Log de bord de la transmission de Ray vers New Relic [#Forward-log] + + Vous pouvez utiliser notre fonction de transfert de logpour transférer les logs Ray vers New Relic. + + 1. Modifiez le fichier de log nommé `logging.yml` situé au chemin suivant : + + ```shell + cd /etc/newrelic-infra/logging.d/ + ``` + + 2. Ajoutez le script suivant au fichier `logging.yml` : + + ```yml + - name: dashboard.log + file: /tmp/ray/session_latest/logs/dashboard.log + attributes: + logtype: ray_dashboard_logs + - name: monitor.log + file: /tmp/ray/session_latest/logs/monitor.log + attributes: + logtype: ray_monitor_logs + - name: log_monitor.log + file: /tmp/ray/session_latest/logs/log_monitor.log + attributes: + logtype: ray_log_monitor_logs + ``` + + + + ## Redémarrer l' agent d'infrastructure [#restart-infra] + + Utilisez les instructions de notre [documentation sur l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/) pour redémarrer votre agent d’infrastructure. Il s’agit d’une commande de base qui devrait fonctionner pour la plupart des gens : + + ```shell + sudo systemctl restart newrelic-infra.service + ``` + + + + ## Consultez vos métriques Ray dans New Relic [#view-data] + + Une fois la configuration ci-dessus terminée, vous pouvez afficher vos métriques à l'aide de notre modèle dashboard prédéfini. Pour accéder à ce dashboard: + + 1. Rendez-vous sur **[one.newrelic.com](https://one.newrelic.com/) > + Integrations & Agents**. + 2. Cliquez sur l’onglet **Dashboards** . + 3. Dans le champ de recherche, tapez `Ray`. + 4. Sélectionnez-le et cliquez sur **Install**. + + Pour intrumenter le quickstart Apache Druid et voir les métriques et les alertes, vous pouvez également suivre notre [page quickstart Ray](https://newrelic.com/instant-observability/ray) en cliquant sur le bouton **Install now** . + + Voici un exemple de requête pour vérifier les nœuds actifs dans votre cluster Ray : + + ```sql + SELECT latest(ray_cluster_active_nodes) FROM Metric + ``` + + + +## Quelle est la prochaine étape ? + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage du dashboard ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/redis/redis-enterprise-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/redis/redis-enterprise-integration.mdx new file mode 100644 index 00000000000..7e36129c711 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/redis/redis-enterprise-integration.mdx @@ -0,0 +1,217 @@ +--- +title: IntégrationRedis Enterprise monitoring +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: 'New Relic Redis Enterprise integration: how to install it, configure it, and understand the data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +Cette intégration est destinée Redis au cluster Enterprise auto-hébergé et non au Redis hébergé cloud ou aux diverses Redis offres Enterprise du marché. + +## architecture [#architecture] + +L'intégration Redis Enterprise peut être exécutée selon deux modes : + + + + Nous vous recommandons d'utiliser ce mode car il fournit également des statistiques sur le système d'exploitation au niveau de l'hôte pour une meilleure corrélation. Voici un exemple de fichier de configuration : + + ```yaml + instances: + - name: redis-metrics + command: metrics + arguments: + hostname: localhost + port: 9443 + username: devops@example.com + password: myPassword + ``` + + + + L'agent New Relic sur un nœud en dehors du Redis Enterprise cluster peut extraire plusieurs clusters pour les métriques. Voici un exemple de fichier de configuration : + + ```yaml + instances: + - name: redis-metrics1 + command: metrics + arguments: + hostname: cluster1.fqdn + port: 9443 + username: devops@example.com + password: myPassword + - name: redis-metrics2 + command: metrics + arguments: + hostname: cluster.fqdn + port: 9443 + username: devops@example.com + password: myPassword + ``` + + + +## Prérequis [#prereqs] + +Avant de procéder à l’ [installation](#install), assurez-vous de remplir les conditions préalables suivantes. + +### Créer un compte monitoring dans Redis Enterprise [#monitoring-account] + +1. Créez un compte monitoring sur votre compte Redis Enterprise. +2. connectez-vous à votre Redis Entprise instance et cliquez **Access Control** sur. Nous vous recommandons d'utiliser un compte interne, mais vous pouvez utiliser LDAP si LDAP est activé. +3. Ajoutez un nouveau compte utilisateur avec **Cluster View Permissions**. + +### Assurez-vous d'avoir installé l'agent d'infrastructure New Relic [#NR-agent] + +Pour voir si vous avez installé l'agent New Relic Infrastructure, exécutez la commande suivante : + +```shell +sudo service newrelic-infra status -l +``` + +En fonction de votre distribution Linux, vous devrez peut-être exécuter la commande suivante : + +```shell +sudo /bin/systemctl status -l newrelic-infra.service +``` + +Si vous ne l'avez pas installé, consultez [comment installer l'agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent/). + +## Installation et configuration [#install] + +1. Téléchargez le dernier fichier TAR en fonction de votre système d'exploitation depuis [Github](https://github.com/redis-field-engineering/newrelic-redis-enterprise/releases). + +2. Décompressez le fichier TAR en exécutant : + + ```shell + sudo su - + mkdir -p /tmp/nr_install + cd /tmp/nr_install + wget $RELEASE_DOWNLOAD + tar zxvf *.tar.gz + ``` + +3. Créez un dossier et copiez les fichiers du fichier TAR dans ce nouveau dossier en exécutant : + + ```shell + mkdir -p /var/db/newrelic-infra/custom-integrations/bin + cp newrelic-redis-enterprise /var/db/newrelic-infra/custom-integrations/bin + cp conf/redis-redisenterprise-definition.yml /var/db/newrelic-infra/custom-integrations/ + cp conf/redis-redisenterprise-multi-config.yml.example conf/redis-redisenterprise-multi-config.yml + ``` + +4. Configurez l’intégration en exécutant : + + ```shell + vi conf/redis-redisenterprise-multi-config.yml + mv conf/redis-redisenterprise-multi-config.yml /etc/newrelic-infra/integrations.d/redis-redisenterprise-config.yaml + ``` + +5. Testez votre nom d'utilisateur et votre mot de passe en exécutant : + + ```shell + curl -vk -u devops@example.com:password https://CLUSTER.FQDN:9443/v1/cluster + ``` + +6. Redémarrez New Relic en exécutant : + + ```shell + sudo service newrelic-infra restart + ``` + + + +### Paramètres de configuration [#config-parameters] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ paramètres + + Définition + + Valeur +
+ `hostname` + + domaine du Redis cluster + + Si vous exécutez en mode localhost, utilisez `localhost` +
+ `port` + + Portage de l'API Redis Enterprise + + Le port par défaut est `9443` +
+ `username` + + L'utilisateur Redis que vous avez créé + + Adresse e-mail telle que `devops@example.com` +
+ `password` + + Votre mot de passe +
+ +## Installer le dashboard [#install-dashboards] + +1. Allez à **[one.newrelic.com/marketplace](https://one.newrelic.com/marketplace)**. + +2. Cliquez sur l’onglet **Dashboards** et dans le champ de recherche, saisissez **Redis Enterprise**. + + A screenshot of the Redis Enterprise dashboards. + + + Si vous connaissez le dashboard que vous souhaitez ajouter, cliquez sur l'un des liens suivants : + + * [Redis des Cluster métriques Enterprise dashboard](https://one.newrelic.com/marketplace?state=51bb87db-0e38-0700-be7a-8fb16d608735) + * [Redis Enterprise base de données CRDT dashboard](https://one.newrelic.com/marketplace?state=3dd588b8-ef40-85b6-17f5-49ca63ad25e3) + * [Redis des mesures Enterprise Database dashboard](https://one.newrelic.com/marketplace?state=8d596a92-8338-1657-4b08-3c520845fec6) + + +3. Cliquez sur l’un des tableaux de bord et sélectionnez un compte dans la liste déroulante. Cliquez ensuite sur **View dashboard** pour l’ajouter à votre compte. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/redis/redis-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/redis/redis-integration.mdx new file mode 100644 index 00000000000..0aa2c3406d1 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/redis/redis-integration.mdx @@ -0,0 +1,1210 @@ +--- +title: Redis monitoring Intégration +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: 'New Relic''s Redis integration: how to install it, configure it, and understand the data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +Notre intégration Redis signale les données de performances critiques de votre serveur [Redis](https://redis.io) aux produits New Relic. Vous pouvez afficher ces [données métriques](#metrics) et [ces données d'inventaire](#inventory) dans un dashboard prédéfini, créer une règle d'alerte et créer des requêtes et des graphiques personnalisés. Vous pouvez également spécifier les clés importantes pour votre application et obtenir des informations sur leur longueur. + +Lisez la suite pour installer l’intégration et voir quelles données nous collectons. + +## Compatibilité et exigences [#comp-req] + +Notre intégration est compatible avec les versions Redis de 3.0 à 7.0. + +Avant d’installer l’intégration, assurez-vous que vous répondez aux exigences suivantes : + +* Un compte New Relic. Vous n'en avez pas ? [Inscrivez-vous gratuitement !](https://newrelic.com/signup) Aucune carte de crédit requise. + +* Si Redis ne s'exécute **pas** sur Kubernetes ou Amazon ECS, vous devez [installer l'agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic) sur un hôte de système d'exploitation Linux qui exécute Redis. Sinon: + + * Si vous exécutez sur Kubernetes, consultez [ces exigences](/docs/monitor-service-running-kubernetes#requirements). + * Si vous utilisez ECS, consultez [ces exigences](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). + +L'intégration obtient des données en exécutant des commandes Redis : + +* [Commande`INFO` ](https://redis.io/commands/info): Les données de la commande INFO renseignent les données métriques et certaines données d'inventaire. + +* [Commande`CONFIG GET` ](https://redis.io/commands/config-get): la plupart des données d’inventaire proviennent de cette commande. + * Dans les installations Redis gérées sans autorisations pour exécuter la commande `CONFIG` (par exemple, AWS ElastiCache), l'exécution de cette commande peut être désactivée avec l'option de configuration `config_inventory: false` . + +* Acquisition de la longueur de clé : Selon le type de clé, ces commandes sont utilisées : + + * [`LLEN`](https://redis.io/commands/llen) pour `list` + * [`SCARD`](https://redis.io/commands/scard) pour `set` + * [`ZCOUNT`](https://redis.io/commands/zcount) pour `zset` + * [`HLEN`](https://redis.io/commands/hlen) pour le type `hash` . + +Pour la collecte de données sur la longueur des clés, l'agent utilise [le pipeline](https://redis.io/topics/pipelining) pour minimiser l'impact sur vos performances Redis. Cependant, si vous collectez la longueur de nombreuses clés, les performances de Redis peuvent être affectées. Pour cette raison, l'agent inclut une limite de clé par défaut (mais cette limite peut être écrasée). + + + Si vous avez modifié les noms des commandes Redis mentionnées ci-dessus, l'intégration ne pourra pas récupérer les données Redis. + + +## Démarrage rapide [#quick] + +instrumentez votre serveur Redis rapidement et envoyez vos données télémétriques avec installation guidée. Notre installation guidée crée une commande CLI personnalisée pour votre environnement qui télécharge et installe la CLI New Relic et l'agent d'infrastructure. + +Prêt à commencer ? Cliquez sur l'un de ces boutons pour l'essayer. + + + + Installation guidée + + + + Guide d'installation de l'UE + + + +## Installer et activer [#install] + +Pour installer l'intégration Redis, suivez les instructions correspondant à votre environnement : + +Notes supplémentaires : + +* **Advanced:** intégration sont également disponibles au [formattarball ](/docs/integrations/host-integrations/installation/install-host-integrations-built-new-relic#tarball)pour permettre une installation en dehors d'un gestionnaire de paquets. +* **On-host integrations do not automatically update.** Pour de meilleurs résultats, mettez régulièrement [à jour le package d'intégration](/docs/integrations/host-integrations/installation/update-infrastructure-host-integration-package) et [l'agent d'infrastructure](/docs/infrastructure/new-relic-infrastructure/installation/update-infrastructure-agent). + + + + Voir [le service de monitoring exécuté sur ECS](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). + + + ' ' + + + Voir [le service de monitoring exécuté sur Kubernetes](/docs/monitor-service-running-kubernetes). + + + + 1. Installez [l'agent d'infrastructure](/docs/integrations/host-integrations/installation/install-infrastructure-host-integrations/#install) et remplacez la variable `INTEGRATION_FILE_NAME` par `nri-redis`. + + 2. Changez le répertoire vers le dossier configuration de l'intégration : + + ```sh + cd /etc/newrelic-infra/integrations.d + ``` + + 3. Copiez l’exemple de fichier de configuration : + + ```sh + sudo cp redis-config.yml.sample redis-config.yml + ``` + + 4. Modifiez le fichier `redis-config.yml` en fonction de vos méthodes de connexion au serveur Redis : + + + + Si vous vous connectez en utilisant un socket Unix, spécifiez `unix_socket_path` dans le [fichier de configuration](#config). S'il existe plusieurs Redis instance utilisant des sockets Unix, assurez-vous de définir `use_unix_socket` sur `true` dans le [configuration fichier .](#config) + + Assurez-vous que l’utilisateur exécutant l’intégration Redis dispose des autorisations appropriées pour accéder à ce socket Unix. Les permissions du socket Unix sont définies dans la configuration Redis (valeur de `unixsocketperm`). + + + + Si vous vous connectez via TCP, le [fichier de configuration](config) est par défaut défini sur `localhost` et le port `6379`. Vous pouvez modifier cela en spécifiant `hostname` et/ou l'argument `port` . Si vous utilisez cette méthode, le paramètre `unix_socket_path` ne peut pas être défini. + + + + 5. Si nécessaire, définissez d’autres paramètres de fichier configuration en fonction de votre configuration Redis , comme décrit dans [la configuration](#config). + + 6. Pour activer l'analyse automatique des erreurs Redis et logtransfert, copiez (ou renommez) le fichier `redis-log.yml.example` en `redis-log.yml`. Pas besoin de redémarrer l'agent. + + + **Example:** + + + ```sh + sudo cp /etc/newrelic-infra/logging.d/redis-log.yml.example /etc/newrelic-infra/logging.d/redis-log.yml + ``` + + + + 1. Téléchargez l'image du programme d'installation `nri-redis` .MSI depuis : + + [https://download.newrelic.com/infrastructure\_agent/windows/integrations/nri-redis/nri-redis-amd64.msi](https://download.newrelic.com/infrastructure_agent/windows/integrations/nri-redis/nri-redis-amd64.msi) + + 2. Pour installer à partir de l’invite de commande Windows, exécutez : + + ```sh + msiexec.exe /qn /i PATH\TO\nri-redis-amd64.msi + ``` + + ou double-cliquez sur le fichier dans l'Explorateur. + + 3. Dans le répertoire d’intégration, `C:\Program Files\New Relic\newrelic-infra\integrations.d\`, créez une copie du fichier configuration d’exemple en exécutant : + + ```sh + copy redis-win-config.yml.sample redis-win-config.yml + ``` + + 4. Modifiez le fichier `redis-win-config.yml` comme décrit dans les [paramètres de configuration](#config). + + + + + +## Créez un utilisateur New Relic pour votre serveur Redis [#enable-instance] + +Si vous utilisez Redis 6+ et utilisez des listes de contrôle d'accès (ACL) pour contrôler l'accès à votre instance, vous souhaiterez peut-être créer un utilisateur `newrelic` pour l'intégration. Utilisez cette commande pour créer et accorder les autorisations requises à votre utilisateur : + +```sh +ACL SETUSER newrelic on >'YOUR_SELECTED_PASSWORD' ~* +INFO +CONFIG|GET +SELECT +TYPE +LLEN +SCARD +ZCOUNT +HLEN +``` + +## Configurer l'intégration [#config] + +Il existe plusieurs façons de configurer l'intégration, selon la manière dont elle a été installée : + +* Si activé via Kubernetes: voir [les services de monitoring exécutés sur Kubernetes](/docs/monitor-service-running-kubernetes). +* Si activé via Amazon ECS : voir [les services de monitoring exécutés sur ECS](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs). +* Si installé sur l'hôte : modifiez la configuration dans le fichier de configuration YAML de l'intégration `redis-config.yml`. + +Utilisez la configuration YAML pour placer les informations de connexion requises et configurer la manière dont vos données sont collectées, en fonction de votre configuration et de vos préférences. + +Le fichier configuration contient des paramètres communs applicables à toutes les intégrations, comme `interval`, `timeout`, `inventory_source`. Pour en savoir plus sur ces paramètres courants, consultez notre [format de configuration YAML](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-newer-configuration-format/#configuration-basics). + + + Si vous utilisez toujours nos legacy fichiers configuration/définition, utilisez notre [ancien format configuration standard](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format/). + + +Les paramètres spécifiques liés à Redis sont définis à l'aide de la section `env` du fichier de configuration. Ces paramètres contrôlent la connexion à votre Redis instance ainsi que d'autres paramètres et fonctionnalités de sécurité. + +## Paramètres de l'instance Redis [#instance-settings] + +L'intégration Redis collecte à la fois les informations Métriques(**M**) et Inventaire(**I**). Dans le tableau, utilisez la colonne **Applies To** pour les paramètres disponibles pour chaque collection : + +' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ `HOSTNAME` + + Nom d'hôte du serveur Redis . + + `localhost` + + MI +
+ `PORT` + + Port sur lequel le serveur Redis écoute. + + `6379` + + MI +
+ `USERNAME` + + Nom d'utilisateur à utiliser lors de la connexion au serveur Redis. Utiliser uniquement avec Redis 6+ si ACL est activé. + + N/A + + MI +
+ `PASSWORD` + + Mot de passe à utiliser lors de la connexion au serveur Redis. Utiliser uniquement avec les serveurs Redis si `REQUIREPASS` ou ACL est activé. + + N/A + + MI +
+ `UNIX_SOCKET_PATH` + + Chemin vers le fichier de socket Unix sur lequel le serveur Redis écoute. Utilisez ceci à la place du nom d'hôte/Port. + + N/A + + MI +
+ `USE_UNIX_SOCKET` + + Définissez sur `true` pour identifier de manière unique l'entité du moniteur lors de l'utilisation de sockets Unix. + + `false` + + MI +
+ `USE_TLS` + + Utilisez TLS lors de la communication avec le serveur Redis. + + `false` + + MI +
+ `TLS_INSECURE_SKIP_VERIFY` + + Désactiver la vérification du nom du serveur lors de la connexion via TLS. + + `false` + + MI +
+ `KEYS` + + Liste des clés permettant de récupérer leurs longueurs. + + N/A + + M +
+ `KEYS_LIMIT` + + Nombre maximum de clés pour récupérer leurs longueurs. + + `30` + + M +
+ `CONFIG_INVENTORY` + + Définissez sur « false » dans les environnements où la commande Redis CONFIG n'est pas autorisée (par exemple, AWS ou ElastiCache). + + `true` + + je +
+ `RENAMED_COMMANDS` + + Mappez les commandes Redis par défaut à leur forme renommée. + + N/A + + MI +
+ [`REMOTE_MONITORING`](/docs/remote-monitoring-host-integrations) + + Activer monitoring multi-locataire. + + `true` + + MI +
+ `METRICS` + + Définissez sur `true` pour activer la collecte de métriques uniquement. + + `false` + +
+ `INVENTORY` + + Définissez sur `true` pour activer la collecte d'inventaire uniquement. + + `false` + +
+ +Les valeurs de ces paramètres peuvent être définies de plusieurs manières : + +* Ajoutez la valeur directement au fichier de configuration. C'est la manière la plus courante. +* Remplacez les valeurs des variables d’environnement en utilisant la notation `{{}}` . Cela nécessite l'agent d'infrastructure 1.14.0+. Pour en savoir plus, consultez la rubrique « Plus d'informations sur [les variables d'environnement de transfert de l'agent d'infrastructure »](/docs/infrastructure/install-infrastructure-agent/configuration/configure-infrastructure-agent/#passthrough). +* Utilisez la gestion des secrets pour protéger les informations sensibles, telles que les mots de passe, afin qu'elles ne soient pas exposées en texte brut dans le fichier de configuration. Pour plus d'informations, voir [gestion des secrets](/docs/integrations/host-integrations/installation/secrets-management). + +## Libellés et attribut personnalisé [#labels] + +Vous pouvez également décorer vos métriques avec des étiquettes. Les étiquettes vous permettent d'ajouter un attribut de paire valeur clé à vos métriques afin que vous puissiez interroger, filtrer ou regrouper vos métriques. + +Même si notre fichier de configuration d'exemple par défaut inclut des exemples d'étiquettes, ils sont facultatifs. Vous pouvez en supprimer, en modifier ou en ajouter de nouveaux. + +```yml +labels: + env: production + role: load_balancer +``` + +## Exemple de configuration [#examples] + + + + Il s'agit de la configuration de base utilisée pour collecter les métriques et l'inventaire à partir de votre hôte local : + + ```yml + integrations: + - name: nri-redis + env: + METRICS: true + HOSTNAME: localhost + PORT: 6379 + REMOTE_MONITORING: true + interval: 15s + labels: + environment: production + + - name: nri-redis + env: + INVENTORY: true + HOSTNAME: localhost + PORT: 6379 + REMOTE_MONITORING: true + interval: 60s + labels: + environment: production + inventory_source: config/redis + ``` + + + + Cette configuration se connecte à Redis à l'aide d'une authentification de base. Remplacez `my_password` par votre mot de passe `REQUIREPASS` : + + ```yml + integrations: + - name: nri-redis + env: + METRICS: true + HOSTNAME: localhost + PORT: 6379 + PASSWORD: "my_password" + REMOTE_MONITORING: true + interval: 15s + labels: + environment: production + + - name: nri-redis + env: + INVENTORY: true + HOSTNAME: localhost + PORT: 6379 + PASSWORD: "my_password" + REMOTE_MONITORING: true + interval: 60s + labels: + environment: production + inventory_source: config/redis + ``` + + + + Dans Redis 6+, vous pouvez protéger votre instance avec [des listes de contrôle d'accès (ACL)](https://redis.io/topics/acl). Pour les ACL, remplacez les valeurs `USERNAME` et `PASSWORD` par vos informations d'identification : + + ```yml + integrations: + - name: nri-redis + env: + METRICS: true + HOSTNAME: localhost + PORT: 6379 + USERNAME: my_user + PASSWORD: "my_password" + REMOTE_MONITORING: true + interval: 15s + labels: + environment: production + + - name: nri-redis + env: + INVENTORY: true + HOSTNAME: localhost + PORT: 6379 + USERNAME: my_user + PASSWORD: "my_password" + REMOTE_MONITORING: true + interval: 60s + labels: + environment: production + inventory_source: config/redis + ``` + + + + Utiliser pour se connecter à Redis avec TLS. Vous pouvez ajouter `TLS_INSECURE_SKIP_VERIFY : true` pour désactiver la vérification du nom du serveur : + + ```yml + integrations: + - name: nri-redis + env: + METRICS: true + HOSTNAME: localhost + PORT: 6379 + USE_TLS: true + REMOTE_MONITORING: true + interval: 15s + labels: + environment: production + ``` + + + + Utilisé pour se connecter à Redis à l'aide d'un fichier socket. Il s'agit d'une alternative à une connexion TCP nom d'hôte/port : + + ```yml + integrations: + - name: nri-redis + env: + METRICS: true + UNIX_SOCKET_PATH: /var/run/redis/redis.sock + USE_UNIX_SOCKET: true + REMOTE_MONITORING: true + interval: 15s + labels: + environment: production + ``` + + + + Utilisez ceci pour collecter vos métriques/inventaire si vous avez utilisé le [`rename-command`](https://redis.io/topics/security#disabling-of-specific-commands) pour protéger votre instance : + + ```yml + integrations: + - name: nri-redis + env: + METRICS: true + HOSTNAME: localhost + PORT: 6379 + RENAMED_COMMANDS: '{"CONFIG":"b840fc9f15f59e41cb7be6c52","LLEN":"c940fc2d15f59e41cb7be6c21"}' + REMOTE_MONITORING: true + interval: 15s + labels: + environment: production + + - name: nri-redis + env: + INVENTORY: true + HOSTNAME: localhost + PORT: 6379 + RENAMED_COMMANDS: '{"CONFIG":"b840fc9f15f59e41cb7be6c52"}' + REMOTE_MONITORING: true + interval: 60s + labels: + environment: production + inventory_source: config/redis + ``` + + + + Utilisez ceci si vous devez collecter des métriques à partir de deux serveurs Redis différents à l'aide de la même intégration. + + Le premier exemple instance collecte uniquement `KEY_1` et `KEY_2` à partir de la base de données Redis 0. Le deuxième exemple instance montre comment collecter à partir de différentes bases de données avec `{"DB":"KEYS"}`. + + ```yml + integrations: + - name: nri-redis + env: + METRICS: true + HOSTNAME: redis_host_1 + PORT: 6379 + KEYS: '["KEY_1","KEY_2"]' + REMOTE_MONITORING: true + interval: 15s + labels: + environment: production + + - name: nri-redis + env: + METRICS: true + HOSTNAME: redis_host_2 + PORT: 6379 + KEYS: '{"0":["KEY_1","KEY_2"],"1":["KEY_3"]}' + REMOTE_MONITORING: true + interval: 15s + labels: + environment: production + ``` + + + +## Rechercher et utiliser des données [#find-and-use] + +Les données de ce service sont signalées à un [dashboard d'intégration](/docs/integrations/new-relic-integrations/getting-started/infrastructure-integration-dashboards-charts). + +Les métriques sont attachées aux [types d'événement](/docs/using-new-relic/data/understand-data/new-relic-data-types#events-new-relic) `RedisSample` et `RedisKeyspaceSample` . Vous pouvez [interroger ces données](/docs/using-new-relic/data/understand-data/query-new-relic-data) à des fins de dépannage ou pour créer des graphiques et des dashboards personnalisés. + +Pour en savoir plus sur la recherche et l’utilisation de vos données, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +L'intégration Redis collecte l'attribut de données métriques suivant : + +### Métriques d'échantillons Redis [#redissample-metrics] + +Ces attributs sont attachés au type d'événement `RedisSample` : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `cluster.connectedSlaves` + + Nombre d'esclaves connectés. +
+ `db.aofLastRewriteTimeInMilliseconds` + + Durée de la dernière opération de réécriture AOF en millisecondes. +
+ `db.aofLastBgrewriteStatus` + + Booléen représentant l'état de la dernière opération de réécriture d'arrière-plan AOF. +
+ `db.aofLastWriteStatus` + + Booléen représentant l'état de la dernière opération d'écriture AOF. +
+ `db.evictedKeysPerSecond` + + Nombre de clés expulsées en raison de la limite de mémoire maximale par seconde. +
+ `db.expiredKeysPerSecond` + + Nombre d'événements d'expiration de clé par seconde. +
+ `db.keyspaceHitsPerSecond` + + Nombre de recherches réussies de clés dans le dictionnaire principal par seconde. +
+ `db.keyspaceMissesPerSecond` + + Nombre de recherches infructueuses de clés dans le dictionnaire principal par seconde. +
+ `db.latestForkUsecMilliseconds` + + Durée de la dernière opération de fork en millisecondes. +
+ `db.rdbBgsaveInProgress` + + Booléen. Un indicateur indiquant qu'une sauvegarde RDB est en cours. +
+ `db.rdbChangesSinceLastSave` + + Nombre de modifications depuis le dernier vidage. +
+ `db.rdbLastBgsaveStatus` + + Booléen représentant l'état de la dernière opération de sauvegarde RDB. +
+ `db.rdbLastBgsaveTimeMilliseconds` + + Durée de la dernière opération de sauvegarde RDB en millisecondes. +
+ `db.rdbLastSaveTime` + + Horodatage basé sur l'époque de la dernière sauvegarde RDB réussie en secondes. +
+ `db.syncFull` + + Compte du nombre de fois où les esclaves se sont entièrement synchronisés avec ce maître. +
+ `db.syncPartialErr` + + Nombre de fois où les synchronisations partielles n'ont pas abouti. +
+ `db.syncPartialOk` + + Compte du nombre de fois où les synchronisations partielles ont été terminées. +
+ `net.blockedClients` + + Nombre de clients en attente d'un appel bloquant (`BLPOP`, `BRPOP`, `BRPOPLPUSH`). +
+ `net.clientBiggestInputBufBytes` + + Le plus grand tampon d'entrée parmi les connexions client actuelles. +
+ `net.clientLongestOutputList` + + La liste de sortie la plus longue parmi les connexions client actuelles. +
+ `net.commandsProcessedPerSecond` + + Nombre de commandes traitées par le serveur par seconde. +
+ `net.connectedClients` + + Nombre de connexions client (hors connexions des esclaves). +
+ `net.connectionsReceivedPerSecond` + + Nombre de connexions acceptées par le serveur par seconde. +
+ `net.inputBytesPerSecond` + + Nombre total d'octets entrés par seconde. +
+ `net.outputBytesPerSecond` + + Nombre total d'octets générés par seconde. +
+ `net.pubsubChannels` + + Nombre global de canaux pub/sub avec abonnement client. +
+ `net.pubsubPatterns` + + Nombre global de modèles de publication/abonnement avec abonnements clients. +
+ `net.rejectedConnectionsPerSecond` + + Nombre de connexions par seconde rejetées en raison de la limite maxclients. +
+ `software.uptimeMilliseconds` + + Nombre de millisecondes depuis le démarrage du serveur Redis. +
+ `system.memFragmentationRatio` + + Rapport entre `used_memory_rss` et `used_memory`. +
+ `system.totalSystemMemoryBytes` + + La quantité de mémoire en octets disponible dans l'instance où Redis est en cours d'exécution. +
+ `system.usedCpuSysMilliseconds` + + CPU système consommé par le serveur Redis en millisecondes. +
+ `system.usedCpuSysChildrenMilliseconds` + + CPU système consommé par les processus d'arrière-plan en millisecondes. +
+ `system.usedCpuUserMilliseconds` + + CPU utilisateur consommé par le serveur Redis en millisecondes. +
+ `system.usedCpuUserChildrenMilliseconds` + + CPU utilisateur consommé par les processus d'arrière-plan en millisecondes. +
+ `system.usedMemoryBytes` + + Le nombre total d'octets alloués par Redis à l'aide de son allocateur (soit le standard `libc`, `jemalloc`, soit un allocateur alternatif tel que `tcmalloc`). +
+ `system.usedMemoryLuaBytes` + + Nombre d'octets utilisés par le moteur Lua. +
+ `system.usedMemoryPeakBytes` + + La mémoire maximale consommée par Redis en octets. +
+ `system.usedMemoryRssBytes` + + Nombre d'octets alloués par Redis tel que vu par le système d'exploitation (également appelé taille de l'ensemble résident). Il s’agit du nombre rapporté par des outils tels que `top(1)` et `ps(1)`. +
+ +### espace clés métriques + +L'intégration Redis collecte les métadonnées et les métriques d'espace clé suivantes. Ces attributs sont attachés au type d'événement `RedisKeyspaceSample` : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `db.avgTtl` + + La durée de vie moyenne (TTL) en millisecondes des clés dont la date d'expiration est définie dans la base de données faisant l'objet du rapport. +
+ `db.keys` + + Nombre de clés dans la base de données faisant l'objet du rapport. +
+ `db.keyspace` + + Index de la base de données Redis, qui est le nombre entier (généralement un nombre compris entre `0` et `15`). Format : `db` suivi de l'index de la base de données. Par exemple : `db0`, `db1`, `db2`, etc. +
+ `db.expires` + + Nombre de clés avec une expiration dans la base de données signalée. +
+ +## Données d'inventaire [#inventory] + +les données d'inventaire incluent tout ce qui est rapporté par la commande Redis [`CONFIG GET`](https://redis.io/commands/config-get) , à l'exception de `requirepass`, qui stocke le mot de passe du serveur Redis . Pour en savoir plus sur les données d’inventaire, voir [Comprendre les données d’inventaire](/docs/infrastructure/integrations-getting-started/getting-started/understand-integration-data-data-types#inventory-data). + +## Autres données du système [#metadata] + +L'intégration Redis collecte ces [attributs](/docs/accounts-partnerships/education/getting-started-new-relic/glossary#attribute) supplémentaires sur votre service Redis : + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `software.version` + + La version du serveur Redis. Exemple : `3.2.3`. +
+ `cluster.role` + + Soit `master` ou `slave,` selon le rôle du nœud Redis monitoré. +
+ +## Vérifiez le code source [#source-code] + +Cette intégration est un logiciel open source. Cela signifie que vous pouvez [parcourir son code source](https://github.com/newrelic/nri-redis) et envoyer des améliorations, ou créer votre propre fork et le construire. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/redmine-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/redmine-integration.mdx new file mode 100644 index 00000000000..1c7c962f090 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/redmine-integration.mdx @@ -0,0 +1,61 @@ +--- +title: Intégration de Redmine +tags: + - Redmine integration + - New Relic integrations +metaDescription: Install our Redmine dashboards and see your Redmine data in New Relic. +freshnessValidatedDate: never +translationType: machine +--- + +Avec notre dashboard Redmine, vous pouvez facilement suivre votre taux de transaction Web, votre taux d'erreur d'application et votre base de données. Conçu avec notre agent Ruby , le quickstart Redmine vous offre un ensemble de par défaut qui vous permettent d'afficher vos critiques les plus détaillées en un seul endroit. + +Redmine dashboard + +
+ Après avoir configuré l'intégration avec New Relic, visualisez vos données dans un dashboard comme celui-ci, dès la sortie de la boîte. +
+ +## Intégrer Redmine avec l'agent Ruby [#ruby] + +Notre agent Ruby collecte et ingère des données afin que vous puissiez suivre les performances de votre Redmine dans New Relic. Vous pouvez installer l'agent Ruby en utilisant notre [lanceur](https://one.newrelic.com/marketplace?account=1&state=eb17d004-3569-306a-d693-9506d3d0cf4e), ou en suivant [l'installation manuelle](/docs/apm/agents/ruby-agent/installation/install-new-relic-ruby-agent) avec notre documentation. + +Une fois installé, confirmez que New Relic ingère vos données Redmine en allant sur **[one.newrelic.com](https://one.newrelic.com/all-capaibilities)**, puis en cliquant sur **Metrics & events**. Exécutez la requête NRQL suivante pour confirmer que New Relic reçoit les données Redmine : + +```sql +SELECT apm.service.transaction.duration FROM Metric +``` + +## Installer l' agent d'infrastructure [#infrastructure] + +Bien que notre intégration Redmine ne soit pas construite avec notre agent d'infrastructure, nous vous recommandons de l'installer si vous souhaitez obtenir des données de performances sur vos hôtes. Vous pouvez installer l'agent d'infrastructure de deux manières différentes : + +* Notre [guide d'installation](https://one.newrelic.com/nr1-core?state=4f81feab-35f7-e97e-9903-52510f8542bd) est un outil CLI qui inspecte votre système et installe agent l' d'infrastructure aux côtés de l'monitoring d'applicationqui agent fonctionne le mieux pour votre système. Pour en savoir plus sur le fonctionnement de notre guide d'installation, consultez notre [aperçu du guide d'installation](/docs/infrastructure/host-integrations/installation/new-relic-guided-install-overview). + +* Si vous préférez installer notre agent d'infrastructure manuellement, vous pouvez suivre un tutoriel d'installation manuelle pour [Linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux), [Windows](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows/) ou [macOS](/docs/infrastructure/install-infrastructure-agent/macos-installation/install-infrastructure-monitoring-agent-macos/). + +## Voir les métriques Redmine dans un dashboard [#dash] + +Notre dashboard par défaut transforme ces données brutes en graphiques et diagrammes, qui offrent une vue d'ensemble de la santé de votre système. Pour installer notre dashboard par défaut, rendez-vous sur notre [page d'observabilité instantanée Redmine](https://newrelic.com/instant-observability/redmine). + +## Créer une requête pour un dashboard personnalisé [#custom] + +Certaines mesures de performance ne sont pas disponibles prêtes à l'emploi avec notre dashboard prédéfini. Bien que facultatif, nous recommandons une instrumentation supplémentaire afin que vous puissiez suivre les métriques Redmine telles que les problèmes gérables, ingérables et en retard. Pour commencer le suivi, installez le plugin [Monitoring & Controlling](https://www.redmine.org/plugins/monitoring-controlling) pour votre application Redmine. + +1. Allez dans votre dossier `redmine-monitoring-controlling` et ouvrez le fichier nommé `home_monitoring_controlling_project_controller.rb`. Cela se trouve dans votre répertoire de plugins. + +2. Insérez cet snippet au bas du fichier : `::NewRelic::Agent.record_metric(‘Custom/managementIssues’,@managementissues.count)` + +3. Allez à **[one.newrelic.com](https://one.newrelic.com/all-capabilities)**, puis cliquez sur **Metrics & events**. Exécutez la requête suivante pour confirmer que New Relic signale des métriques personnalisées : + + ```sql + SELECT MAX(newrelic.timeslice.value) AS Manageable Issues FROM Metric WHERE metricTimesliceName like '%Custom/managementissues%' + ``` + +## Quelle est la prochaine étape ? + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage du dashboard ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/redpanda-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/redpanda-integration.mdx new file mode 100644 index 00000000000..5178e478c36 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/redpanda-integration.mdx @@ -0,0 +1,120 @@ +--- +title: Intégration de Redpanda +tags: + - Integrations + - Configure nri-prometheus for Redpanda + - Redpanda metrics integration on New Relic platform +metaDescription: Get a dashboard of all your most important Redpanda metrics with our Redpanda quickstart. +freshnessValidatedDate: never +translationType: machine +--- + +Notre intégration RedPanda capture les métriques au niveau cluster , les données sur les groupes de planification et les détails sur vos erreurs de service et les temps de disponibilité, puis affiche ces données dans un prédéfini. + +A screenshot of a dashboard with Redpanda metrics. + +
+ Après avoir configuré Redpanda avec New Relic, vos données s'afficheront dans un dashboard, dès la sortie de la boîte. +
+ +Suivez les étapes suivantes pour installer l’intégration : + + + + ## Installer l' agent d'infrastructure [#infra] + + Pour utiliser l’intégration RedPanda, vous devez d’abord [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L'agent infrastructure monitore l'hôte lui-même, tandis que l'intégration que vous installerez à l'étape suivante étend votre monitoring avec des données spécifiques à RedPanda. + + + + ## Configurer l'intégration [#configure] + + 1. Créez un fichier nommé `nri-prometheus-config.yml` dans `/etc/newrelic-infra/integrations.d`. + + 2. Ajoutez le snippet suivant à votre fichier `nri-prometheus-config.yml` pour activer la capture des données RedPanda. Assurez-vous de modifier le fichier de configuration avec vos informations : + + ```yml + integrations: + - name: nri-prometheus + config: + # When standalone is set to false, nri-prometheus requires an infrastructure agent to work and send data. Defaults to true + standalone: false + + # If using the infrastructure agent, emitters have to include infra-sdk + emitters: infra-sdk + + # The name of your cluster. The name of your cluster must be consistent across New Relic products so the infrastructure agent and nri-prometheus can scrape data from the cluster. + cluster_name: "YOUR_EXPORTER_NAME" + + targets: + - description: Redpanda metrics are captured in the below urls + urls: ["http://localhost:9644/metrics", "http://localhost:9644/public_metrics"] + # tls_config: + # ca_file_path: "/etc/etcd/etcd-client-ca.crt" + # cert_file_path: "/etc/etcd/etcd-client.crt" + # key_file_path: "/etc/etcd/etcd-client.key" + + # Specifies whether or not the integration should run in verbose mode. Defaults to false. + verbose: false + + # Specifies whether or not the integration should run in audit mode. Defaults to false. + # Audit mode logs the uncompressed data sent to New Relic. Use this to log all data sent. + # It does not include verbose mode. This can lead to a high log volume, use with care. + audit: false + + # The HTTP client timeout when fetching data from endpoints. Defaults to "5s" if it's not set. + # scrape_timeout: "5s" + + # Length in time to distribute the scraping from the endpoints. Default to "30s" if it's not set. + scrape_duration: "5s" + + # Number of worker threads used for scraping targets. + # For large clusters with many (>400) endpoints, slowly increase until scrape + # time falls between the desired `scrape_duration`. + # Increasing this value too much will result in huge memory consumption if too + # many metrics are being scraped. + # Default: 4 + # worker_threads: 4 + + #Specifies whether or not the integration should skip TLS verification. Defaults to false. + insecure_skip_verify: false + + timeout: 10s + ``` + + + + ## Redémarrez l'agent New Relic Infrastructure + + Avant de pouvoir commencer à utiliser vos données, [redémarrez votre agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/). + + La commande suivante devrait fonctionner pour la plupart des systèmes : + + ````shell + sudo systemctl restart newrelic-infra.service + ``` + + ```` + + + + ## Trouvez vos données [#redpanda-metrics] + + Vous pouvez choisir notre modèle dashboard prédéfini nommé `RedPanda` pour monitorer les métriques de votre serveur Nextcloud. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com), aller à la page **+ Integrations & Agents** . + 2. Cliquez sur **Dashboards**. + 3. Dans la barre de recherche, tapez `RedPanda`. + 4. Le dashboard RedPanda devrait apparaître. Cliquez dessus pour l'installer. + + Votre dashboard Nextcloud est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l'utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + + +## Quelle est la prochaine étape ? [#whats-next] + +Si vous souhaitez personnaliser votre dashboard RedPanda, vous pouvez en savoir plus sur la création de requêtes NRQL et la gestion de votre dashboard dans l'UI de New Relic : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d'affichage dashboard ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/sendmail-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/sendmail-monitoring-integration.mdx new file mode 100644 index 00000000000..678f1ab9108 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/sendmail-monitoring-integration.mdx @@ -0,0 +1,239 @@ +--- +title: Intégration de Sendmail +tags: + - Sendmail integration + - New Relic integrations +metaDescription: Install our Sendmail dashboards and see your Sendmail performance data in New Relic. +freshnessValidatedDate: '2023-06-28T00:00:00.000Z' +translationType: machine +--- + +Notre intégration Sendmail monitore les performances de votre agent de transfert de courrier Sendmail, vous aidant à intrumenter et à monitorer rapidement votre agent. + + + +
+ Après avoir configuré l'intégration avec New Relic, visualisez vos données dans un dashboard comme celui-ci, dès la sortie de la boîte. +
+ +Suivez les étapes suivantes pour installer l’intégration : + + + + ## Installer l' agent d'infrastructure [#install-infra-agent] + + Pour utiliser l’intégration Sendmail, vous devez d’abord [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L&apos;agent infrastructure monitore l&apos;hôte lui-même, tandis que l&apos;intégration que vous installerez à l&apos;étape suivante étend votre monitoring avec des données spécifiques à Sendmail. + + + + ## Utilisez NRI-Flex pour capturer des métriques + + Flex vous permet de capturer les métriques Apache Zookeeper. Il est fourni avec l’agent New Relic Infrastructure que vous avez installé à l’étape précédente. + + 1. Créez un fichier nommé `sendmail-flex-config.yml` dans le chemin `/newrelic-infra/integrations.d` . + + 2. Mettez à jour le `sendmail-flex-config.yml` avec l’exemple de configuration suivant. + + Assurez-vous de remplacer les références `FAILED_MESSAGES_FILE_NAME` par le nom de votre fichier. Pour trouver ce nom de fichier, accédez à `/var/mail/` et vérifiez le fichier qui a été créé pour les messages ayant échoué. + + ```yml + --- + integrations: + - name: nri-flex + config: + name: sendmailFlex + apis: + #check if Sendmail service is up. + - event_type: SendmailUp + commands: + - run: echo "value:$(systemctl status sendmail | grep 'Active':' active (running)' | wc -l)" + split_by: ':' + + #check if Sendmail service is down. + - event_type: SendmailDown + commands: + - run: echo "value:$(systemctl status sendmail | grep 'Active':' inactive (dead)' | wc -l)" + split_by: ':' + + #Read the number of times SMTP service is unreachable. + - event_type: SendmailSMTPserviceUnreachable + commands: + - run: echo "value:$(cat /var/log/mail.log | grep -E 'stat=Service unavailable' | wc -l)" + split_by: ':' + + #Read the count of error message - host not found. + - event_type: SendmailHostNotFound + commands: + - run: echo "value:$(cat /var/log/mail.log | grep -c 'host not found')" + split_by: ':' + + #Read the count of error logged. + - event_type: SendmailErrorCount + commands: + - run: echo "value:$(cat /var/log/mail.err | wc -l)" + split_by: ':' + + #Read the number of messages accepted for delivery. + - event_type: SendmailMessageAcceptedForDelivery + commands: + - run: echo "value:$(cat /var/log/mail.log | grep -c 'Message accepted for delivery')" + split_by: ':' + + #Read the number of messages sent & deferred. + - event_type: SendmailMessageStatus + commands: + - run: echo "sent:$(cat /var/log/mail.log | grep 'stat=Sent' | wc -l)" + split_by: ':' + - run: echo "deferred:$(cat /var/log/mail.log | grep 'stat=Deferred' | wc -l)" + split_by: ':' + + #Read the number of messages held by user. + #Go to the path "/var/mail/" and check the file that has been created for failed messages and accordingly update "FAILED_MESSAGES_FILE_NAME" in the below command. + - event_type: SendmailHeldMessage + commands: + - run: echo "value:$(cat /var/mail/FAILED_MESSAGES_FILE_NAME | grep -c 'Subject:')" + split_by: ':' + + #Read the number of connection timeout. + - event_type: SendmailConnectionTimeOut + commands: + - run: echo "value:$(cat /var/log/mail.log | grep -c 'timeout')" + split_by: ':' + + #Read the recipients with message count. + - event_type: SendmailRecipientsbyMessageCount + commands: + - run: cat /var/log/mail.log | grep "to=<.*.>" | awk '{n=split($7,a,"to="); print a[1],a[2]}' | cut -d "<" -f2 |cut -d ">" -f1 | sort | uniq -c | sort -nr + split: horizontal + header_split_by: \s+(\d+)\s+(.*.) + set_header: [msgCount.total, recipients.total] + regex_match: true + split_by: \s+(\d+)\s+(.*.) + - run: cat /var/log/mail.log | grep "to=<.*.>" | grep "$(date +'%b %e')" | awk '{n=split($7,a,"to="); print a[1],a[2]}' | cut -d "<" -f2 |cut -d ">" -f1 | sort | uniq -c | sort -nr + split: horizontal + header_split_by: \s+(\d+)\s+(.*.) + set_header: [msgCount.latest, recipients.latest] + regex_match: true + split_by: \s+(\d+)\s+(.*.) + + #Read the recipients host/domain. + - event_type: SendmailRecipientsHostname + commands: + - run: cat /var/log/mail.log | grep "to=<.*.>" | awk '{print $7}' | grep -oE '[^@]+[a-zA-Z0-9\-\.]+\.[a-zA-Z]{2,}' | sort | uniq -c + split: horizontal + header_split_by: \s+(\d+)\s+(.*.) + set_header: [hostCount.total, hostname.total] + regex_match: true + split_by: \s+(\d+)\s+(.*.) + - run: cat /var/log/mail.log | grep "to=<.*.>" | grep "$(date +'%b %e')" | awk '{print $7}' | grep -oE '[^@]+[a-zA-Z0-9\-\.]+\.[a-zA-Z]{2,}' | sort | uniq -c + split: horizontal + header_split_by: \s+(\d+)\s+(.*.) + set_header: [hostCount.latest, hostname.latest] + regex_match: true + split_by: \s+(\d+)\s+(.*.) + + #Read the senders with message count. + - event_type: SendmailSendersbyMessageCount + commands: + - run: cat /var/log/mail.log | grep "from=<.*@.*>" | awk '{print $7}' | cut -d "<" -f2 |cut -d ">" -f1 | sort | uniq -c + split: horizontal + header_split_by: \s+(\d+)\s+(.*.) + set_header: [msg.total, senders.total] + regex_match: true + split_by: \s+(\d+)\s+(.*.) + - run: cat /var/log/mail.log | grep "from=<.*@.*>" | grep "$(date +'%b %e')" | awk '{print $7}' | cut -d "<" -f2 |cut -d ">" -f1 | sort | uniq -c + split: horizontal + header_split_by: \s+(\d+)\s+(.*.) + set_header: [msg.latest, senders.latest] + regex_match: true + split_by: \s+(\d+)\s+(.*.) + + #Read the senders host/domain. + - event_type: SendmailSendersHostname + commands: + - run: cat /var/log/mail.log | grep "from=<.*.>" | awk '{print $7}' | grep -oE '[^@]+[a-zA-Z0-9\-\.]+\.[a-zA-Z]{2,}' | sort | uniq -c + split: horizontal + header_split_by: \s+(\d+)\s+(.*.) + set_header: [hostCount.total, hostname.total] + regex_match: true + split_by: \s+(\d+)\s+(.*.) + - run: cat /var/log/mail.log | grep "from=<.*.>" | grep "$(date +'%b %e')" | awk '{print $7}' | grep -oE '[^@]+[a-zA-Z0-9\-\.]+\.[a-zA-Z]{2,}' | sort | uniq -c + split: horizontal + header_split_by: \s+(\d+)\s+(.*.) + set_header: [hostCount.latest, hostname.latest] + regex_match: true + split_by: \s+(\d+)\s+(.*.) + ``` + + + + ## Transférez votre log Sendmail vers New Relic [#forward-logs] + + Vous pouvez utiliser notre fonctionnalité [de transfert de log](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/) pour transférer le log Sendmail vers New Relic. + + Ajoutez le script suivant à `/etc/newrelic-infra/logging.d/logging.yml`: + + ````yml + logs: + - name: mail.log + file: /var/log/mail.log + attributes: + logtype: sendmail_log + - name: mail.err + file: /var/log/mail.err + attributes: + logtype: sendmail_error + ``` + + + ```` + + + + ## Redémarrez l'agent New Relic Infrastructure [#restart-agent] + + Avant de pouvoir commencer à lire vos données, utilisez les instructions de notre [documentation suragent d'infrastructure ](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/)pour redémarrer votre agent d&apos;infrastructure. + + ```shell + sudo systemctl restart newrelic-infra.service + ``` + + Dans quelques minutes, votre application enverra des métriques à [one.newrelic.com](https://one.newrelic.com). + + + + ## Trouvez vos données [#find-data] + + Vous pouvez choisir notre modèle dashboard prédéfini nommé `Sendmail` pour monitorer les métriques de votre application Sendmail. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com), aller à la page **+ Integrations & Agents** . + 2. Cliquez sur **Dashboards**. + 3. Dans la barre de recherche, tapez `sendmail`. + 4. Le dashboard Sendmail devrait apparaître. Cliquez dessus pour l'installer. + + Votre dashboard Sendmail est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l&apos;utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + Voici une requête NRQL pour trouver le statut d'envoi de votre dernier message : + + ```sql + SELECT latest(sent) as 'Sent', latest(deferred) as ‘Deferred’ + FROM SendmailMessageStatus + ``` + + Voici une requête NRQL pour trouver l'état du service Sendmail : + + ```sql + SELECT latest(value) as 'Service Up' + FROM SendmailUp + TIMESERIES AUTO + ``` + + + +## Quelle est la prochaine étape ? [#whats-next] + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d&apos;affichage ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/snowflake-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/snowflake-integration.mdx new file mode 100644 index 00000000000..76a60010926 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/snowflake-integration.mdx @@ -0,0 +1,231 @@ +--- +title: Intégration de Snowflake avec Flex +tags: + - Snowflake integration + - New Relic integrations +metaDescription: Install our Snowflake dashboards and see your Snowflake data in New Relic. +freshnessValidatedDate: never +translationType: machine +--- + +Notre intégration Snowflake vous permet de collecter des données complètes sur divers aspects, notamment les performances des requêtes, la santé du système de stockage, l'état de l'entrepôt et les informations de facturation. + +A screenshot of a dashboard with Snowflake query metrics. + +
+ Après avoir configuré l'intégration de Snowflake avec New Relic, visualisez vos données dans un dashboard comme celui-ci, dès la sortie de la boîte. +
+ + + + ## Installer l' agent d'infrastructure [#infra-install] + + Pour utiliser l’intégration Snowflake, vous devez également [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L&apos;agent infrastructure monitore l&apos;hôte lui-même, tandis que l&apos;intégration que vous installerez à l&apos;étape suivante étend votre monitoring avec des données spécifiques à Snowflake. + + + + ## Configurer les métriques Snowflake + + Exécutez la commande ci-dessous pour stocker les métriques Snowflake au format JSON, permettant à nri-flex de les lire. Assurez-vous de modifier le COMPTE, le NOM D'UTILISATEUR et le SNOWSQL\_PWD en conséquence. + + ```shell + + # Run the below command as a 1 minute cronjob + SNOWSQL_PWD='Replaceme' snowsql -o output_format=json -o remove_comments=true -o header=true -o timing=false -o friendly=false -a -u -q 'SELECT SERVICE_TYPE, NAME, AVG(CREDITS_USED_COMPUTE) AS "CREDITS_USED_COMPUTE_AVERAGE", SUM(CREDITS_USED_COMPUTE) AS "CREDITS_USED_COMPUTE_SUM", AVG(CREDITS_USED_CLOUD_SERVICES) AS "CREDITS_USED_CLOUD_SERVICES_AVERAGE", SUM(CREDITS_USED_CLOUD_SERVICES) AS "CREDITS_USED_CLOUD_SERVICES_SUM", AVG(CREDITS_USED) AS "CREDITS_USED_AVERAGE", SUM(CREDITS_USED) AS "CREDITS_USED_SUM" FROM "SNOWFLAKE"."ACCOUNT_USAGE"."METERING_HISTORY" WHERE start_time >= DATE_TRUNC(day, CURRENT_DATE()) GROUP BY 1, 2;' > /tmp/snowflake-account-metering.json + SNOWSQL_PWD='Replaceme' snowsql -o output_format=json -o remove_comments=true -o header=true -o timing=false -o friendly=false -a -u -q 'SELECT WAREHOUSE_NAME, AVG(AVG_RUNNING) AS "RUNNING_AVERAGE", AVG(AVG_QUEUED_LOAD) AS "QUEUED_LOAD_AVERAGE", AVG(AVG_QUEUED_PROVISIONING) AS "QUEUED_PROVISIONING_AVERAGE", AVG(AVG_BLOCKED) AS "BLOCKED_AVERAGE" FROM "SNOWFLAKE"."ACCOUNT_USAGE"."WAREHOUSE_LOAD_HISTORY" GROUP BY 1;' > /tmp/snowflake-warehouse-load-history-metrics.json + SNOWSQL_PWD='Replaceme' snowsql -o output_format=json -o remove_comments=true -o header=true -o timing=false -o friendly=false -a -u -q 'SELECT WAREHOUSE_NAME, avg(CREDITS_USED_COMPUTE) as "CREDITS_USED_COMPUTE_AVERAGE", sum(CREDITS_USED_COMPUTE) as "CREDITS_USED_COMPUTE_SUM", avg(CREDITS_USED_CLOUD_SERVICES) as "CREDITS_USED_CLOUD_SERVICES_AVERAGE", sum(CREDITS_USED_CLOUD_SERVICES) as "CREDITS_USED_CLOUD_SERVICES_SUM", avg(CREDITS_USED) as "CREDITS_USED_AVERAGE", sum(CREDITS_USED) as "CREDITS_USED_SUM" from "SNOWFLAKE"."ACCOUNT_USAGE"."WAREHOUSE_METERING_HISTORY" group by 1;' > /tmp/snowflake-warehouse-metering.json + SNOWSQL_PWD='Replaceme' snowsql -o output_format=json -o remove_comments=true -o header=true -o timing=false -o friendly=false -a -u -q 'SELECT table_name, table_schema, avg(ACTIVE_BYTES) as "ACTIVE_BYTES_AVERAGE", avg(TIME_TRAVEL_BYTES) as "TIME_TRAVEL_BYTES_AVERAGE", avg(FAILSAFE_BYTES) as "FAILSAFE_BYTES_AVERAGE", avg(RETAINED_FOR_CLONE_BYTES) as "RETAINED_FOR_CLONE_BYTES_AVERAGE" from "SNOWFLAKE"."ACCOUNT_USAGE"."TABLE_STORAGE_METRICS" group by 1, 2;' > /tmp/snowflake-table-storage-metrics.json + SNOWSQL_PWD='Replaceme' snowsql -o output_format=json -o remove_comments=true -o header=true -o timing=false -o friendly=false -a -u -q 'SELECT STORAGE_BYTES, STAGE_BYTES, FAILSAFE_BYTES FROM "SNOWFLAKE"."ACCOUNT_USAGE"."STORAGE_USAGE" ORDER BY USAGE_DATE DESC LIMIT 1;' > /tmp/snowflake-storage-usage.json + SNOWSQL_PWD='Replaceme' snowsql -o output_format=json -o remove_comments=true -o header=true -o timing=false -o friendly=false -a -u -q 'SELECT USAGE_DATE, AVG(AVERAGE_STAGE_BYTES) FROM "SNOWFLAKE"."ACCOUNT_USAGE"."STAGE_STORAGE_USAGE_HISTORY" GROUP BY USAGE_DATE;' > /tmp/snowflake-stage-storage-usage-history.json + SNOWSQL_PWD='Replaceme' snowsql -o output_format=json -o remove_comments=true -o header=true -o timing=false -o friendly=false -a -u -q 'SELECT DATABASE_NAME, AVG(CREDITS_USED) AS "CREDITS_USED_AVERAGE", SUM(CREDITS_USED) AS "CREDITS_USED_SUM", AVG(BYTES_TRANSFERRED) AS "BYTES_TRANSFERRED_AVERAGE", SUM(BYTES_TRANSFERRED) AS "BYTES_TRANSFERRED_SUM" FROM "SNOWFLAKE"."ACCOUNT_USAGE"."REPLICATION_USAGE_HISTORY" GROUP BY DATABASE_NAME;' > /tmp/snowflake-replication-usage-history.json + SNOWSQL_PWD='Replaceme' snowsql -o output_format=json -o remove_comments=true -o header=true -o timing=false -o friendly=false -a -u -q 'SELECT QUERY_TYPE, WAREHOUSE_NAME, DATABASE_NAME, SCHEMA_NAME, AVG(EXECUTION_TIME) AS "EXECUTION_TIME_AVERAGE", AVG(COMPILATION_TIME) AS "COMPILATION_TIME_AVERAGE", AVG(BYTES_SCANNED) AS "BYTES_SCANNED_AVERAGE", AVG(BYTES_WRITTEN) AS "BYTES_WRITTEN_AVERAGE", AVG(BYTES_DELETED) AS "BYTES_DELETED_AVERAGE", AVG(BYTES_SPILLED_TO_LOCAL_STORAGE) AS "BYTES_SPILLED_TO_LOCAL_STORAGE_AVERAGE", AVG(BYTES_SPILLED_TO_REMOTE_STORAGE) AS "BYTES_SPILLED_TO_REMOTE_STORAGE_AVERAGE" FROM "SNOWFLAKE"."ACCOUNT_USAGE"."QUERY_HISTORY" GROUP BY QUERY_TYPE, WAREHOUSE_NAME, DATABASE_NAME, SCHEMA_NAME;' > /tmp/snowflake-query-history.json + SNOWSQL_PWD='Replaceme' snowsql -o output_format=json -o remove_comments=true -o header=true -o timing=false -o friendly=false -a -u -q 'SELECT PIPE_NAME, AVG(CREDITS_USED) AS "CREDITS_USED_AVERAGE", SUM(CREDITS_USED) AS "CREDITS_USED_SUM", AVG(BYTES_INSERTED) AS "BYTES_INSERTED_AVERAGE", SUM(BYTES_INSERTED) AS "BYTES_INSERTED_SUM", AVG(FILES_INSERTED) AS "FILES_INSERTED_AVERAGE", SUM(FILES_INSERTED) AS "FILES_INSERTED_SUM" FROM "SNOWFLAKE"."ACCOUNT_USAGE"."PIPE_USAGE_HISTORY" GROUP BY PIPE_NAME;' > /tmp/snowflake-pipe-usage.json + SNOWSQL_PWD='Replaceme' snowsql -o output_format=json -o remove_comments=true -o header=true -o timing=false -o friendly=false -a -u -q 'SELECT QUERY_ID, QUERY_TEXT, (EXECUTION_TIME / 60000) AS EXEC_TIME, WAREHOUSE_NAME, USER_NAME, EXECUTION_STATUS FROM "SNOWFLAKE"."ACCOUNT_USAGE"."QUERY_HISTORY" WHERE EXECUTION_STATUS = '\''SUCCESS'\'' ORDER BY EXECUTION_TIME DESC;' > /tmp/snowflake-longest-queries.json + SNOWSQL_PWD='Replaceme' snowsql -o output_format=json -o remove_comments=true -o header=true -o timing=false -o friendly=false -a -u -q 'SELECT EVENT_ID, EVENT_TIMESTAMP, EVENT_TYPE, REPORTED_CLIENT_TYPE, REPORTED_CLIENT_VERSION, FIRST_AUTHENTICATION_FACTOR, SECOND_AUTHENTICATION_FACTOR, IS_SUCCESS, ERROR_CODE, ERROR_MESSAGE FROM "SNOWFLAKE"."ACCOUNT_USAGE"."LOGIN_HISTORY" WHERE IS_SUCCESS = '\''NO'\'';' > /tmp/snowflake-login-failures.json + SNOWSQL_PWD='Replaceme' snowsql -o output_format=json -o remove_comments=true -o header=true -o timing=false -o friendly=false -a -u -q 'SELECT DATABASE_NAME, AVERAGE_DATABASE_BYTES, AVERAGE_FAILSAFE_BYTES FROM "SNOWFLAKE"."ACCOUNT_USAGE"."DATABASE_STORAGE_USAGE_HISTORY" ORDER BY USAGE_DATE DESC LIMIT 1;' > /tmp/snowflake-database-storage-usage.json + SNOWSQL_PWD='Replaceme' snowsql -o output_format=json -o remove_comments=true -o header=true -o timing=false -o friendly=false -a -u -q 'SELECT SOURCE_CLOUD, SOURCE_REGION, TARGET_CLOUD, TARGET_REGION, TRANSFER_TYPE, AVG(BYTES_TRANSFERRED) AS "BYTES_TRANSFERRED_AVERAGE", SUM(BYTES_TRANSFERRED) AS "BYTES_TRANSFERRED_SUM" FROM "SNOWFLAKE"."ACCOUNT_USAGE"."DATA_TRANSFER_HISTORY" GROUP BY 1, 2, 3, 4, 5;' > /tmp/snowflake-data-transfer-usage.json + SNOWSQL_PWD='Replaceme' snowsql -o output_format=json -o remove_comments=true -o header=true -o timing=false -o friendly=false -a -u -q 'SELECT WAREHOUSE_NAME, SUM(CREDITS_USED) AS TOTAL_CREDITS_USED FROM "SNOWFLAKE"."ACCOUNT_USAGE"."WAREHOUSE_METERING_HISTORY" GROUP BY 1 ORDER BY 2 DESC;' > /tmp/snowflake-credit-usage-by-warehouse.json + SNOWSQL_PWD='Replaceme' snowsql -o output_format=json -o remove_comments=true -o header=true -o timing=false -o friendly=false -a -u -q 'SELECT TABLE_NAME, DATABASE_NAME, SCHEMA_NAME, AVG(CREDITS_USED) AS "CREDITS_USED_AVERAGE", SUM(CREDITS_USED) AS "CREDITS_USED_SUM", AVG(NUM_BYTES_RECLUSTERED) AS "BYTES_RECLUSTERED_AVERAGE", SUM(NUM_BYTES_RECLUSTERED) AS "BYTES_RECLUSTERED_SUM", AVG(NUM_ROWS_RECLUSTERED) AS "ROWS_RECLUSTERED_AVERAGE", SUM(NUM_ROWS_RECLUSTERED) AS "ROWS_RECLUSTERED_SUM" FROM "SNOWFLAKE"."ACCOUNT_USAGE"."AUTOMATIC_CLUSTERING_HISTORY" GROUP BY 1, 2, 3;' > /tmp/snowflake-automatic-clustering.json + SNOWSQL_PWD='Replaceme' snowsql -o output_format=json -o remove_comments=true -o header=true -o timing=false -o friendly=false -a -u -q 'select USER_NAME,EVENT_TYPE,IS_SUCCESS,ERROR_CODE,ERROR_MESSAGE,FIRST_AUTHENTICATION_FACTOR,SECOND_AUTHENTICATION_FACTOR from "SNOWFLAKE"."ACCOUNT_USAGE"."LOGIN_HISTORY";' > /tmp/snowflake-account-details.json + + ``` + + + + ## Activer l'intégration de Snowflake avec nri-flex + + Pour configurer l’intégration Snowflake, suivez ces étapes : + + 1. Créez un fichier nommé `nri-snowflake-config.yml` dans le répertoire d&apos;intégration : + + ```shell + + touch /etc/newrelic-infra/integrations.d/nri-snowflake-config.yml + + ``` + + 2. Ajoutez le snippet suivant à votre fichier `nri-snowflake-config.yml` pour permettre à l&apos;agent de capturer les données Snowflake : + + ```yml + + --- + integrations: + - name: nri-flex + interval: 30s + config: + name: snowflakeAccountMetering + apis: + - name: snowflakeAccountMetering + file: /tmp/snowflake-account-metering.json + - name: nri-flex + interval: 30s + config: + name: snowflakeWarehouseLoadHistory + apis: + - name: snowflakeWarehouseLoadHistory + file: /tmp/snowflake-warehouse-load-history-metrics.json + - name: nri-flex + interval: 30s + config: + name: snowflakeWarehouseMetering + apis: + - name: snowflakeWarehouseMetering + file: /tmp/snowflake-warehouse-metering.json + - name: nri-flex + interval: 30s + config: + name: snowflakeTableStorage + apis: + - name: snowflakeTableStorage + file: /tmp/snowflake-table-storage-metrics.json + - name: nri-flex + interval: 30s + config: + name: snowflakeStageStorageUsage + apis: + - name: snowflakeStageStorageUsage + file: /tmp/snowflake-stage-storage-usage-history.json + - name: nri-flex + interval: 30s + config: + name: snowflakeReplicationUsgae + apis: + - name: snowflakeReplicationUsgae + file: /tmp/snowflake-replication-usage-history.json + - name: nri-flex + interval: 30s + config: + name: snowflakeQueryHistory + apis: + - name: snowflakeQueryHistory + file: /tmp/snowflake-query-history.json + - name: nri-flex + interval: 30s + config: + name: snowflakePipeUsage + apis: + - name: snowflakePipeUsage + file: /tmp/snowflake-pipe-usage.json + - name: nri-flex + interval: 30s + config: + name: snowflakeLongestQueries + apis: + - name: snowflakeLongestQueries + file: /tmp/snowflake-longest-queries.json + - name: nri-flex + interval: 30s + config: + name: snowflakeLoginFailure + apis: + - name: snowflakeLoginFailure + file: /tmp/snowflake-login-failures.json + - name: nri-flex + interval: 30s + config: + name: snowflakeDatabaseStorageUsage + apis: + - name: snowflakeDatabaseStorageUsage + file: /tmp/snowflake-database-storage-usage.json + - name: nri-flex + interval: 30s + config: + name: snowflakeDataTransferUsage + apis: + - name: snowflakeDataTransferUsage + file: /tmp/snowflake-data-transfer-usage.json + - name: nri-flex + interval: 30s + config: + name: snowflakeCreditUsageByWarehouse + apis: + - name: snowflakeCreditUsageByWarehouse + file: /tmp/snowflake-credit-usage-by-warehouse.json + - name: nri-flex + interval: 30s + config: + name: snowflakeAutomaticClustering + apis: + - name: snowflakeAutomaticClustering + file: /tmp/snowflake-automatic-clustering.json + - name: nri-flex + interval: 30s + config: + name: snowflakeStorageUsage + apis: + - name: snowflakeStorageUsage + file: /tmp/snowflake-storage-usage.json + - name: nri-flex + interval: 30s + config: + name: snowflakeAccountDetails + apis: + - name: snowflakeAccountDetails + file: /tmp/snowflake-account-details.json + + ``` + + + + ## Redémarrez l'agent New Relic Infrastructure + + Redémarrez votre agent d’infrastructure. + + ```shell + + sudo systemctl restart newrelic-infra.service + + ``` + + Dans quelques minutes, votre application enverra des métriques à [one.newrelic.com](https://one.newrelic.com). + + + + ## Trouvez vos données + + Vous pouvez choisir notre modèle dashboard prédéfini nommé `Snowflake` pour monitorer les métriques de votre application Snowflake. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com), aller à la page **+ Add data** . + 2. Cliquez sur **Dashboards.** + 3. Dans la barre de recherche, tapez `Snowflake`. + 4. Le dashboard Snowflake devrait apparaître. Cliquez dessus pour l'installer + + Votre dashboard Snowflake est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l&apos;utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + Voici une requête NRQL pour vérifier les métriques Snowflake : + + ```sql + + SELECT * from snowflakeAccountSample + + ``` + + + +## Quelle est la prochaine étape ? + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d&apos;affichage du dashboard ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/sonarqube-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/sonarqube-monitoring-integration.mdx new file mode 100644 index 00000000000..61d84be640b --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/sonarqube-monitoring-integration.mdx @@ -0,0 +1,304 @@ +--- +title: Intégration monitoring SonarQube +tags: + - New Relic integrations + - SonarQube +metaDescription: Use New Relic browser monitoring to get a dashboard with metrics from your SonarQube. +freshnessValidatedDate: '2023-06-28T00:00:00.000Z' +translationType: machine +--- + +Notre intégration SonarQube monitore les performances de votre application SonarQube, vous aidant à diagnostiquer et à optimiser le code. Notre intégration SonarQube utilise notre agent infrastructure , l'intégration PosgreSQL, NRI-Prometheus et NRI-JMX et vous offre un dashboard prédéfini avec vos métriques SonarQube les plus importantes. + +New Relic SonarQube dashboard + +
+ Après avoir configuré notre intégration SonarQube, nous vous fournissons un dashboard pour vos métriques SonarQube. +
+ + + + ## Installer l' agent d'infrastructure [#infra-install] + + Pour utiliser l’intégration SonarQube, vous devez d’abord [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. Toutes nos intégrations sur hôte nécessitent l&apos;agent infrastructure , qui permet d&apos;exposer et de rapporter les métriques à New Relic. + + + + ## Installer l'intégration PostgreSQL + + Pour utiliser l'intégration SonarQube, vous devez d'abord installer notre intégration PostgreSQL. + + 1. Consultez nos exigences d’intégration PostgreSQL dans notre [documentation](/docs/infrastructure/host-integrations/host-integrations-list/postgresql/postgresql-integration/) avant d’installer l’intégration. Confirmez votre compatibilité, puis revenez à ce document. + 2. Ouvrir la page de démarrage rapide de PostgreSQL [Installation quickstart de PostgreSQL](https://newrelic.com/instant-observability/postresql). + 3. Cliquez sur **Install now** pour démarrer l’installation quickstart de PostgreSQL. + + + + ## Configurer NRI-Prometheus + + 1. Exécutez la commande suivante pour créer un fichier de configuration NRI-Prometheus : + + ```shell + touch /etc/newrelic-infra/integrations.d/nri-prometheus-config.yml + ``` + + 2. Collez le snippet suivant dans le nouveau fichier de configuration. Assurez-vous de mettre à jour les `cluster_name` et `urls` avec vos champs pertinents : + + ```yml + integrations: + - name: nri-prometheus + config: + # When standalone is set to false nri-prometheus requires an infrastructure agent to work and send data. Defaults to true + standalone: false + + # When running with infrastructure agent emitters will have to include infra-sdk + emitters: infra-sdk + + # The name of your cluster. It's important to match other New Relic products to relate the data. + cluster_name: "YOUR_CLUSTER_NAME" + + targets: + - description: Sonarqube metrics list + urls: ["http://user_name:password@YOUR_HOST_IP:9000/api/monitoring/metrics"] + + # tls_config: + # ca_file_path: "/etc/etcd/etcd-client-ca.crt" + # cert_file_path: "/etc/etcd/etcd-client.crt" + # key_file_path: "/etc/etcd/etcd-client.key" + + # Whether the integration should run in verbose mode or not. Defaults to false + verbose: false + + # Whether the integration should run in audit mode or not. Defaults to false. + # Audit mode logs the uncompressed data sent to New Relic. Use this to log all data sent. + # It does not include verbose mode. This can lead to a high log volume, use with care + audit: false + + # The HTTP client timeout when fetching data from endpoints. Defaults to 30s. + # scrape_timeout: "30s" + + # Length in time to distribute the scraping from the endpoints + scrape_duration: "5s" + + # Number of worker threads used for scraping targets. + # For large clusters with many (>400) endpoints, slowly increase until scrape + # time falls between the desired `scrape_duration`. + # Increasing this value too much will result in huge memory consumption if too + # many metrics are being scraped. + # Default: 4 + # worker_threads: 4 + + # Whether the integration should skip TLS verification or not. Defaults to false + insecure_skip_verify: true + timeout: 10s + ``` + + + + ## Installer et configurer l'intégration JMX + + Pour utiliser l'intégration SonarQube, vous devez également [installer notre intégration de monitoring JMX](/docs/infrastructure/host-integrations/host-integrations-list/jmx-monitoring-install/). L&apos;intégration JMX récupère les données SonarQube, que nous transformerons plus tard en dashboard et en données interrogeables. + + 1. [Installez notre intégration de monitoring JMX](/docs/infrastructure/host-integrations/host-integrations-list/jmx-monitoring-install/). + + 2. Ajoutez le snippet de code suivant à `/opt/sonarqube/conf/sonar.properties`: + + ```yml + # SonarQube Web Server JMX configuration. + sonar.web.javaOpts=-Dcom.sun.management.jmxremote \ + -Dcom.sun.management.jmxremote.port=9010 \ + -Dcom.sun.management.jmxremote.authenticate=false \ + -Dcom.sun.management.jmxremote.ssl=false + + # SonarQube Compute Engine JMX configuration. + sonar.ce.javaOpts=-Dcom.sun.management.jmxremote \ + -Dcom.sun.management.jmxremote.port=9011 \ + -Dcom.sun.management.jmxremote.authenticate=false \ + -Dcom.sun.management.jmxremote.ssl=false + ``` + + 3. Ajoutez le snippet de code suivant à `/etc/newrelic-infra/integrations.d/jvm-sonarqube-web-metrics.yml/`: + + ```yml + collect: + - domain: SonarQube + event_type: JVMSampleSonarQubeWebMetrics + beans: + - query: name=AsyncExecution + attributes: + - QueueSize + - WorkerCount + - LargestWorkerCount + - query: name=Database + attributes: + - MigrationStatus + - PoolActiveConnections + - PoolMaxActiveConnections + - PoolIdleConnections + - PoolMaxIdleConnections + - PoolMinIdleConnections + - PoolInitialSize + - PoolMaxWaitMillis + - PoolRemoveAbandoned + - PoolRemoveAbandonedTimeoutSeconds + - query: name=SonarQube + attributes: + - Version + - ServerId + - LogLevel + ``` + + 4. Ajoutez le snippet de code suivant à `/etc/newrelic-infra/integrations.d/jvm-sonarqube-compute-engine-metrics.yml`: + + ```yml + collect: + - domain: SonarQube + event_type: JVMSampleSonarQubeComputeEngineMetrics + beans: + - query: name=ComputeEngineDatabaseConnection + attributes: + - PoolInitialSize + - PoolActiveConnections + - PoolMaxActiveConnections + - PoolIdleConnections + - PoolMaxIdleConnections + - PoolMinIdleConnections + - PoolMaxWaitMillis + - PoolRemoveAbandoned + - PoolRemoveAbandonedTimeoutSeconds + - query: name=ComputeEngineTasks + attributes: + - PendingCount + - LongestTimePending + - InProgressCount + - ErrorCount + - SuccessCount + - ProcessingTime + - WorkerMaxCount + - WorkerCount + - WorkerUuids + - EnabledWorkerUuids + ``` + + 5. Ajoutez le snippet de code suivant à `/etc/newrelic-infra/integrations.d/jmx-sonarqube-compute-engine-config.yml`: + + ```yml + integrations: + - name: nri-jmx + env: + COLLECTION_FILES: /etc/newrelic-infra/integrations.d/jvm-sonarqube-compute-engine-metrics.yml + JMX_HOST: + JMX_PASS: admin + JMX_PORT: 9010 + JMX_USER: admin + CONNECTION_URL: service:jmx:rmi://:9010/jndi/rmi://:9010/jmxrmi + REMOTE_MONITORING: "true" + interval: 15s + labels: + env: staging + ``` + + 6. Ajoutez le snippet de code suivant à `/etc/newrelic-infra/integrations.d/jmx-sonarqube-web-config.yml`: + + ```yml + integrations: + - name: nri-jmx + env: + COLLECTION_FILES: /etc/newrelic-infra/integrations.d/jvm-sonarqube-web-metrics.yml + JMX_HOST: + JMX_PASS: admin + JMX_PORT: 9011 + JMX_USER: admin + CONNECTION_URL: service:jmx:rmi://:9011/jndi/rmi://:9011/jmxrmi + REMOTE_MONITORING: "true" + interval: 15s + labels: + env: staging + ``` + + + + ## Transférer le log SonarQube vers New Relic + + Suivez ces étapes pour transférer le log SonarQube vers New Relic : + + 1. Créez un fichier de log nommé `logging.yml` dans le chemin suivant : + + ```shell + cd /etc/newrelic-infra/logging.d + ``` + + 2. Ajoutez le script suivant au fichier `logging.yml` : + + ```yml + logs: + - name: sonar_logs + file: /opt/sonarqube/logs/sonar.log + attributes: + logtype: sonar_logs + - name: ce_logs + file: /opt/sonarqube/logs/ce.log + attributes: + logtype: sonar_ce_logs + - name: es_logs + file: /opt/sonarqube/logs/es.log + attributes: + logtype: sonar_es_logs + - name: web_logs + file: /opt/sonarqube/logs/web.log + attributes: + logtype: sonar_web_logs + ``` + + + + ## Redémarrez l'agent New Relic Infrastructure + + Redémarrez votre agent d’infrastructure : + + ```shell + sudo systemctl restart newrelic-infra.service + ``` + + Dans quelques minutes, votre application enverra des métriques à [one.newrelic.com](https://one.newrelic.com). + + + + ## Trouvez vos données + + Vous pouvez choisir notre modèle dashboard prédéfini nommé `SonarQube` pour monitorer les métriques de votre application SonarQube. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com), aller à la page **+ Integrations & Agents** . + 2. Cliquez sur **Dashboards**. + 3. Dans la barre de recherche, tapez `sonarqube`. + 4. Le dashboard SonarQube devrait apparaître. Cliquez dessus pour l'installer. + + Votre dashboard SonarQube est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l&apos;utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + Voici quelques exemples de requêtes NRQL pour les données Postfix : + + + + ```sql + SELECT latest(sonarqube_web_uptime_minutes) + AS 'SonarQube Web Uptime (minutes)' + FROM Metric + ``` + + + + ```sql + SELECT latest(PoolIdleConnections) FROM JVMSampleSonarQubeWebMetrics + ``` + + + + + +## Quelle est la prochaine étape ? + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d&apos;affichage du dashboard ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/temporal-cloud-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/temporal-cloud-integration.mdx new file mode 100644 index 00000000000..555face277b --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/temporal-cloud-integration.mdx @@ -0,0 +1,205 @@ +--- +title: Nuage d'intégration temporelle +tags: + - Temporal Cloud integration + - Temporal Cloud monitoring + - New Relic integrations +metaDescription: Install our Temporal Cloud dashboards and see your Temporal Cloud data in New Relic. +freshnessValidatedDate: never +translationType: machine +--- + +Notre cloud d'intégration temporelle monitore les performances de vos données Temporal Cloud, vous aidant à diagnostiquer les problèmes dans votre workflow, votre espace de nommage et vos applications évolutives. Notre cloud d'intégration temporelle vous offre un dashboard prédéfini avec vos métriques les plus importantes du cloud temporel. + +A screenshot depicting the Temporal Cloud dashboard + +
+ Après avoir configuré l'intégration avec New Relic, visualisez vos données dans un dashboard comme celui-ci, dès la sortie de la boîte. +
+ + + + ## Installer l' agent d'infrastructure [#infra] + + Pour utiliser le cloud d'intégration Temporel, vous devez d'abord [installer l'agent infrastructure ](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/)sur le même hôte. L&apos;agent infrastructure monitore l&apos;hôte lui-même, tandis que l&apos;intégration que vous installerez à l&apos;étape suivante étend votre monitoring avec des données spécifiques au temps telles que la base de données et les métriques instance . + + + + ## Configure `nri-flex` [#configure-flex] + + Une fois les métriques Temporal Cloud exposées sur le point de terminaison Prometheus, accessible via `https://.tmprl.cloud/prometheus`, vous devrez [configurer votre configuration](https://docs.temporal.io/production-deployment/cloud/metrics/general-setup) en conséquence. + + + Flex nécessite un [compte New Relic](/docs/accounts/accounts-billing/account-setup/create-your-new-relic-account) et est compatible avec le système d&apos;exploitation/plateforme suivant : + + 1. Linux + + 2. Windows + + 3. Kubernetes + + Pour plus d'informations sur les distributions et versions compatibles, consultez la [page de compatibilité de l'agent de l'infrastructure](/docs/infrastructure/new-relic-infrastructure/getting-started/compatibility-requirements-new-relic-infrastructure). + + + 1. Créez un fichier nommé `nri-flex-temporal-cloud-config.yml` dans ce chemin : + + ```shell + touch /etc/newrelic-infra/integrations.d/ + ``` + + 2. Vous trouverez ci-dessous un fichier de configuration `nri-flex` . Assurez-vous de copier et coller son contenu dans votre fichier `nri-flex-temporal-cloud-config.yml` précédemment créé et n&apos;oubliez pas de mettre à jour votre ID de compte dans l&apos;URL du point de terminaison Prometheus, ainsi que les chemins d&apos;accès aux fichiers de certificat : + + ```yml + integrations: + - name: nri-flex + config: + name: temporalCloudIntegration + global: + base_url: https://.tmprl.cloud/prometheus/api/v1/ + headers: + accept: application/json + tls_config: + enable: true + key: /certs/client.key + cert: /certs/client.pem + interval: 60s + timeout: 55s + apis: + - event_type: temporalCloudFrontendServiceError + # sum(increase(temporal_cloud_v0_frontend_service_error_count[1m])) by (temporal_namespace,operation) + url: query?query=sum%28increase%28temporal_cloud_v0_frontend_service_error_count%5B1m%5D%29%29%20by%20%28temporal_namespace%2Coperation%29 + split_array: true + leaf_array: true + - event_type: temporalCloudFrontendServiceRequest + # sum(increase(temporal_cloud_v0_frontend_service_request_count[1m])) by (temporal_namespace,operation) + url: query?query=sum%28increase%28temporal_cloud_v0_frontend_service_request_count%5B1m%5D%29%29%20by%20%28temporal_namespace%2Coperation%29 + split_array: true + leaf_array: true + - event_type: temporalCloudPollSuccess + # sum(increase(temporal_cloud_v0_poll_success_count[1m])) by (temporal_namespace,operation,task_type) + url: query?query=sum%28increase%28temporal_cloud_v0_poll_success_count%5B1m%5D%29%29%20by%20%28temporal_namespace%2Coperation%2Ctask_type%29 + split_array: true + leaf_array: true + - event_type: temporalCloudPollSuccessSync + # sum(increase(temporal_cloud_v0_poll_success_sync_count[1m])) by (temporal_namespace,operation,task_type) + url: query?query=sum%28increase%28temporal_cloud_v0_poll_success_sync_count%5B1m%5D%29%29%20by%20%28temporal_namespace%2Coperation%2Ctask_type%29 + split_array: true + leaf_array: true + - event_type: temporalCloudPollTimeout + # sum(increase(temporal_cloud_v0_poll_timeout_count[1m])) by (temporal_namespace,operation,task_type) + url: query?query=sum%28increase%28temporal_cloud_v0_poll_timeout_count%5B1m%5D%29%29%20by%20%28temporal_namespace%2Coperation%2Ctask_type%29 + split_array: true + leaf_array: true + - event_type: temporalCloudResourceExhaustedErrors + # sum(increase(temporal_cloud_v0_resource_exhausted_error_count[1m])) by (temporal_namespace,resource_exhausted_cause) + url: query?query=sum%28increase%28temporal_cloud_v0_resource_exhausted_error_count%5B1m%5D%29%29%20by%20%28temporal_namespace%2Cresource_exhausted_cause%29 + split_array: true + leaf_array: true + - event_type: temporalCloudScheduleActionSuccess + # sum(increase(temporal_cloud_v0_schedule_action_success_count[1m])) by (temporal_namespace) + url: query?query=sum%28increase%28temporal_cloud_v0_schedule_action_success_count%5B1m%5D%29%29%20by%20%28temporal_namespace%29 + split_array: true + leaf_array: true + - event_type: temporalCloudScheduleBufferOverruns + # sum(increase(temporal_cloud_v0_schedule_buffer_overruns_count[1m])) by (temporal_namespace) + url: query?query=sum%28increase%28temporal_cloud_v0_schedule_buffer_overruns_count%5B1m%5D%29%29%20by%20%28temporal_namespace%29 + split_array: true + leaf_array: true + - event_type: temporalCloudScheduleMissedCatchupWindow + # sum(increase(temporal_cloud_v0_schedule_missed_catchup_window_count[1m])) by (temporal_namespace) + url: query?query=sum%28increase%28temporal_cloud_v0_schedule_missed_catchup_window_count%5B1m%5D%29%29%20by%20%28temporal_namespace%29 + split_array: true + leaf_array: true + - event_type: temporalCloudScheduleRateLimited + # sum(increase(temporal_cloud_v0_schedule_rate_limited_count[1m])) by (temporal_namespace) + url: query?query=sum%28increase%28temporal_cloud_v0_schedule_rate_limited_count%5B1m%5D%29%29%20by%20%28temporal_namespace%29 + split_array: true + leaf_array: true + - event_type: temporalCloudStateTransition + # sum(increase(temporal_cloud_v0_state_transition_count[1m])) by (temporal_namespace) + url: query?query=sum%28increase%28temporal_cloud_v0_state_transition_count%5B1m%5D%29%29%20by%20%28temporal_namespace%29 + split_array: true + leaf_array: true + - event_type: temporalCloudTotalAction + # sum(increase(temporal_cloud_v0_total_action_count[1m])) by (temporal_namespace, namespace_mode) + url: query?query=sum%28increase%28temporal_cloud_v0_total_action_count%5B1m%5D%29%29%20by%20%28temporal_namespace%2C%20namespace_mode%29 + split_array: true + leaf_array: true + - event_type: temporalCloudWorkflowCancel + # sum(increase(temporal_cloud_v0_workflow_cancel_count[1m])) by (temporal_namespace, operation) + url: query?query=sum%28increase%28temporal_cloud_v0_workflow_cancel_count%5B1m%5D%29%29%20by%20%28temporal_namespace%2C%20operation%29 + split_array: true + leaf_array: true + - event_type: temporalCloudWorkflowContinued + # sum(increase(temporal_cloud_v0_workflow_continued_as_new_count[1m])) by (temporal_namespace, operation) + url: query?query=sum%28increase%28temporal_cloud_v0_workflow_continued_as_new_count%5B1m%5D%29%29%20by%20%28temporal_namespace%2C%20operation%29 + split_array: true + leaf_array: true + - event_type: temporalCloudWorkflowFailed + # sum(increase(temporal_cloud_v0_workflow_failed_count[1m])) by (temporal_namespace, operation) + url: query?query=sum%28increase%28temporal_cloud_v0_workflow_failed_count%5B1m%5D%29%29%20by%20%28temporal_namespace%2C%20operation%29 + split_array: true + leaf_array: true + - event_type: temporalCloudWorkflowSuccess + # sum(increase(temporal_cloud_v0_workflow_success_count[1m])) by (temporal_namespace, operation) + url: query?query=sum%28increase%28temporal_cloud_v0_workflow_success_count%5B1m%5D%29%29%20by%20%28temporal_namespace%2C%20operation%29 + split_array: true + leaf_array: true + - event_type: temporalCloudWorkflowTerminate + # sum(increase(temporal_cloud_v0_workflow_terminate_count[1m])) by (temporal_namespace, operation) + url: query?query=sum%28increase%28temporal_cloud_v0_workflow_terminate_count%5B1m%5D%29%29%20by%20%28temporal_namespace%2C%20operation%29 + split_array: true + leaf_array: true + - event_type: temporalCloudWorkflowTimeout + # sum(increase(temporal_cloud_v0_workflow_timeout_count[1m])) by (temporal_namespace, operation) + url: query?query=sum%28increase%28temporal_cloud_v0_workflow_timeout_count%5B1m%5D%29%29%20by%20%28temporal_namespace%2C%20operation%29 + split_array: true + leaf_array: true + - event_type: temporalCloudWorkflowExecutionLatencySecP95 + # histogram_quantile(0.95, sum(rate(temporal_cloud_v0_service_latency_bucket[1m] offset 1m)) by (temporal_namespace, operation, le)) + url: query?query=histogram_quantile%280.95%2C%20sum%28rate%28temporal_cloud_v0_service_latency_bucket%5B1m%5D%20offset%201m%29%29%20by%20%28temporal_namespace%2C%20operation%2C%20le%29%29 + split_array: true + leaf_array: true + - event_type: temporalCloudReplicationLagSecP95 + # histogram_quantile(0.95, sum(rate(temporal_cloud_v0_replication_lag_bucket[1m] offset 1m)) by (temporal_namespace, le)) + url: query?query=histogram_quantile%280.95%2C%20sum%28rate%28temporal_cloud_v0_replication_lag_bucket%5B1m%5D%20offset%201m%29%29%20by%20%28temporal_namespace%2C%20le%29%29 + split_array: true + leaf_array: true + ``` + + 3. Utilisez nos instructions [pour redémarrer votre agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/): + + ```bash + sudo systemctl restart newrelic-infra.service + ``` + + 4. Attendez quelques minutes jusqu'à ce que les données commencent à arriver sur votre [compte New Relic](https://one.newrelic.com/). + + + + ## Trouvez vos données [#find-your-data] + + Vous pouvez choisir notre modèle dashboard prédéfini nommé Temporal Cloud pour monitorer vos métriques Temporal Cloud. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com/), allez sur la page **+ Integrations & Agents** . + 2. Cliquez sur **Dashboards**. + 3. Dans la barre de recherche, tapez **Temporal Cloud**. + 4. Le dashboard du Cloud temporel devrait apparaître. Cliquez dessus pour l'installer. + + Votre Temporal Cloud dashboard est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI Dashboards . Pour obtenir des documents sur l'utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/). + + Voici une requête NRQL pour vérifier les requests du service frontend Temporal Cloud regroupées par espace de nommage et opération : + + ```sql + FROM temporalCloudFrontendServiceRequest SELECT latest(`data.result-value1`) FACET `data.result-metric-temporal_namespace` AS namespace, `data.result-metric-operation` AS operation TIMESERIES 1 minute + ``` + + + +## Quelle est la prochaine étape ? + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d&apos;affichage du dashboard ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/temporal-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/temporal-monitoring-integration.mdx new file mode 100644 index 00000000000..ebc312488ae --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/temporal-monitoring-integration.mdx @@ -0,0 +1,256 @@ +--- +title: Intégration monitoring temporelle auto-hébergée +tags: + - Temporal integration + - Temporal monitoring + - New Relic integrations +metaDescription: Install our Temporal dashboards and see your Temporal data in New Relic. +freshnessValidatedDate: never +translationType: machine +--- + +Notre intégration temporelle monitore les performances de vos données temporelles, vous aidant à diagnostiquer les problèmes dans vos applications distribuées en écriture, tolérantes aux pannes et évolutives. Notre intégration temporelle vous offre un dashboard prédéfini avec les métriques les plus importantes de votre application Temporal SDK. + +A screenshot depicting the Temporal dashboard + +
+ Après avoir configuré l'intégration avec New Relic, visualisez vos données dans un dashboard comme celui-ci, dès la sortie de la boîte. +
+ + + + ## Installer l' agent d'infrastructure [#infra] + + Pour utiliser l’intégration temporelle, vous devez d’abord [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L&apos;agent infrastructure monitore l&apos;hôte lui-même, tandis que l&apos;intégration que vous installerez à l&apos;étape suivante étend votre monitoring avec des données spécifiques au temps telles que la base de données et les métriques instance . + + + + ## exposer les métriques temporelles [#expose-temporal-metrics] + + Les étapes suivantes exécuteront une instance locale du serveur temporaire à l'aide du fichier de configuration par défaut `docker-compose.yml`: + + 1. Si vous ne l'avez pas déjà, installez `docker` et `docker-compose` sur votre hôte : + + ```shell + sudo apt install docker + sudo apt install docker-compose + ``` + + 2. Cloner le référentiel : + + ```shell + git clone https://github.com/temporalio/docker-compose.git + ``` + + 3. Changer de répertoire vers la racine du projet : + + ```shell + sudo nano docker-compose/docker-compose.yml + ``` + + 4. Ajoutez le point de terminaison et le port Prometheus au fichier `docker-compose.yml` . + + ```yml + Environment: + - PROMETHEUS_ENDPOINT=0.0.0.0:8000 + ports: + - 8000:8000 + ``` + + 5. Exécutez la commande `docker-compose up` pour créer votre instance : + + ```shell + sudo docker-compose up + ``` + + 6. Confirmez que votre instance fonctionne correctement sur les URL suivantes : + + * Le serveur Temporel sera disponible le `localhost:7233`. + * L'UI Web temporelle sera disponible à l'adresse `http://YOUR_DOMAIN:8080` + * Les métriques du serveur temporel seront disponibles sur le `http://YOUR_DOMAIN:8000/metrics` + + + + ## exposer les métriques du SDK Java [#expose-java-sdk-metrics] + + Vous allez maintenant exposer les métriques du client SDK que Prometheus va récupérer : + + 1. Créez un fichier `MetricsWorker.java` dans le dossier principal de votre projet : + + ```java + //... + // You need to import the following packages to set up metrics in Java. + // See the Developer's guide for packages required for the other SDKs. + import com.sun.net.httpserver.HttpServer; + import com.uber.m3.tally.RootScopeBuilder; + import com.uber.m3.tally.Scope; + import com.uber.m3.util.Duration; + import com.uber.m3.util.ImmutableMap; + + // See the Micrometer documentation for configuration details on other supported monitoring systems. + // This example shows how to set up the Prometheus registry and stats reported. + + PrometheusMeterRegistry registry = new PrometheusMeterRegistry(PrometheusConfig.DEFAULT); + StatsReporter reporter = new MicrometerClientStatsReporter(registry); + + // set up a new scope, report every 10 seconds + Scope scope = new RootScopeBuilder() + .tags(ImmutableMap.of( + "workerCustomTag1", + "workerCustomTag1Value", + "workerCustomTag2", + "workerCustomTag2Value")) + .reporter(reporter) + .reportEvery(com.uber.m3.util.Duration.ofSeconds(10)); + + // For Prometheus collection, expose the scrape endpoint at port 8077. See Micrometer documentation for details on starting the Prometheus scrape endpoint. For example, + HttpServer scrapeEndpoint = MetricsUtils.startPrometheusScrapeEndpoint(registry, 8077); //note: MetricsUtils is a utility file with the scrape endpoint configuration. See Micrometer docs for details on this configuration. + // Stopping the starter stops the HTTP server that exposes the scrape endpoint. + //Runtime.getRuntime().addShutdownHook(new Thread(() -> scrapeEndpoint.stop(1))); + + //Create Workflow service stubs to connect to the Frontend Service. + WorkflowServiceStubs service = WorkflowServiceStubs.newServiceStubs( + WorkflowServiceStubsOptions.newBuilder() + .setMetricsScope(scope) //set the metrics scope for the WorkflowServiceStubs + .build()); + + //Create a Workflow service client, which can be used to start, signal, and query Workflow Executions. + WorkflowClient yourClient = WorkflowClient.newInstance(service, + WorkflowClientOptions.newBuilder().build()); + + //... + ``` + + 2. Accédez à votre répertoire de projet et créez votre projet : + + ```shell + ./gradlew build + ``` + + 3. Démarrer le travailleur : + + ```shell + ./gradlew -q execute -PmainClass= + ``` + + 4. Vérifiez vos métriques de travail sur le point de terminaison Prometheus Scrape exposé : `http://YOUR_DOMAIN:8077/metrics`. + + + Pour plus d'informations sur la configuration des métriques du SDK, consultez la [documentation](https://docs.temporal.io/self-hosted-guide/monitoring#sdk-metrics-setup) officielle de Temporal. + + + + + ## Configurer NRI-Prometheus [#configure-prometheus] + + Après une installation réussie, effectuez ces configurations NRI-Prometheus : + + 1. Créez un fichier nommé `nri-prometheus-temporal-config.yml` dans ce chemin : + + ```shell + cd /etc/newrelic-infra/integrations.d/ + ``` + + 2. Voici un exemple de fichier de configuration. Assurez-vous de mettre à jour les URL d'espace réservé : + + ```yml + integrations: + - name: nri-prometheus + config: + standalone: false + # Defaults to true. When standalone is set to `false`, `nri-prometheus` requires an infrastructure agent to send data. + emitters: infra-sdk + # When running with infrastructure agent emitters will have to include infra-sdk + cluster_name: Temporal_Server_Metrics + # Match the name of your cluster with the name seen in New Relic. + targets: + - description: Temporal_Server_Metrics + urls: ["http://:8000/metrics", "http://:8077/metrics"] + # tls_config: + # ca_file_path: "/etc/etcd/etcd-client-ca.crt" + # cert_file_path: "/etc/etcd/etcd-client.crt" + # key_file_path: "/etc/etcd/etcd-client.key" + verbose: false + # Defaults to false. This determines whether or not the integration should run in verbose mode. + audit: false + # Defaults to false and does not include verbose mode. Audit mode logs the uncompressed data sent to New Relic and can lead to a high log volume. + # scrape_timeout: "YOUR_TIMEOUT_DURATION" + # `scrape_timeout` is not a mandatory configuration and defaults to 30s. The HTTP client timeout when fetching data from endpoints. + scrape_duration: "5s" + # worker_threads: 4 + # `worker_threads` is not a mandatory configuration and defaults to `4` for clusters with more than 400 endpoints. Slowly increase the worker thread until scrape time falls between the desired `scrape_duration`. Note: Increasing this value too much results in huge memory consumption if too many metrics are scraped at once. + insecure_skip_verify: false + # Defaults to false. Determins if the integration should skip TLS verification or not. + timeout: 10s + ``` + + + + ## Configurer le log temporel [#temporal-logs-configuration] + + Pour configurer le log temporel, suivez les étapes décrites ci-dessous. + + 1. Exécutez cette commande Docker pour vérifier l’état d’exécution du conteneur : + + ```shell + sudo docker ps + ``` + + 2. Copiez l'ID du conteneur pour le conteneur **temporalio/UI** et exécutez cette commande : + + ```shell + sudo docker logs -f &> /tmp/temporal.log & + ``` + + Vérifiez ensuite qu'il existe un fichier de log nommé `temporal.log` situé dans le répertoire `/tmp/`. + + + + ## Transférer le log vers New Relic [#temporal-logs-to-newrelic] + + Vous pouvez utiliser notre [transfert de log](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/) pour transférer les logs temporels vers New Relic. + + 1. Sur les machines Linux, assurez-vous que votre fichier de log nommé `logging.yml` se trouve dans ce chemin : + + ```shell + cd /etc/newrelic-infra/logging.d/ + ``` + + 2. Une fois que vous avez trouvé le fichier de log dans le chemin ci-dessus, incluez ce script dans le fichier `logging.yml` : + + ```yml + logs: + - name: temporal.log + file: /tmp/temporal.log + attributes: + logtype: temporal_logs + ``` + + 3. Utilisez nos instructions [pour redémarrer votre agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/): + + ```bash + sudo systemctl restart newrelic-infra.service + ``` + + 4. Attendez quelques minutes jusqu'à ce que les données commencent à arriver sur votre [compte New Relic](https://one.newrelic.com/). + + + + ## Trouvez vos données [#find-your-data] + + Vous pouvez choisir notre modèle dashboard prédéfini nommé Temporal pour monitorer vos métriques temporelles. Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com/), allez sur la page **+ Integrations & Agents** . + 2. Cliquez sur **Dashboards**. + 3. Dans la barre de recherche, tapez **Temporal**. + 4. Lorsque le dashboard temporel apparaît, cliquez pour l'installer. + + Votre temporel dashboard est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI Dashboards. Pour obtenir des documents sur l'utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/). + + Voici une requête NRQL pour vérifier la somme de latence de la requête temporelle : + + ```sql + SELECT sum(temporal_request_latency_sum) FROM Metric WHERE scrapedTargetURL = 'http://:8000/metrics' + ``` + + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/unix-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/unix-monitoring-integration.mdx new file mode 100644 index 00000000000..ac3c5a55643 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/unix-monitoring-integration.mdx @@ -0,0 +1,168 @@ +--- +title: Intégration monitoring Unix +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: An introduction to New Relic's open-source Unix monitoring integration. +freshnessValidatedDate: never +translationType: machine +--- + +L'intégration monitoring Unix permet monitoring au niveau système des serveurs basés sur Unix, tels que AIX, Linux, macOS et Solaris/SunOS, et signale les données à New Relic. + +image of the New Relic Unix dashboard + + + Cette intégration est sortie en [open source sur Github](https://github.com/newrelic/newrelic-unix-monitor). Si vous rencontrez des problèmes, veuillez les log sur ([https://github.com/newrelic/newrelic-unix-monitor/issues](https://github.com/newrelic/newrelic-unix-monitor/issues)). + + +## Installer l'intégration [#install] + +Suivez les étapes ci-dessous pour installer l'intégration : + + + + ## Vérifiez la compatibilité et les exigences [#comp] + + * JDK 8 et supérieur + * AIX 7.0 et versions ultérieures + * HP-UX 11.0 et versions ultérieures + * Système d'exploitation basé sur Linux + * OSX / MacOS 10.9 (« Mavericks ») et versions ultérieures + * Solaris/SunOS 10.0 et versions ultérieures + + + + ## Téléchargez et préparez l'intégration [#download] + + 1. Téléchargez la dernière version du monitorer Unix [depuis le référentiel GitHub (repository)](https://github.com/newrelic/newrelic-unix-monitor/releases/latest). + + 2. Copiez l'intégration sur le serveur Unix que vous souhaitez monitorer, puis décompressez-la : + + ```shell + tar -xvzf + ``` + + + + ## Configurer l'intégration [#configure-step] + + 1. Ouvrez le fichier de configuration `config/plugin.json`. + 2. Définissez [`account_id`](/docs/accounts/install-new-relic/account-setup/account-id) et `insights_insert_key` sur vos valeurs. Modifiez le reste du fichier de configuration selon vos besoins (proxy, attribut d&apos;agent, etc.). + + Voici un exemple de fichier de configuration complexe. Le vôtre n'utilisera probablement pas toutes les options de configuration disponibles : + + ```yml + { + "global": { + "OS": "auto", + "account_id": "YOUR_NEWRELIC_ID", + "fedramp": "false", + "insights_mode": { + "insights_insert_key": "YOUR_INSIGHTS_INSERT_KEY", + "insights_data_center": "US" + }, + "proxy": { + "proxy_host": "YOUR_PROXY_HOST", + "proxy_port": 5443, + "proxy_username": "YOUR_PROXY_USERNAME", + "proxy_password": "YOUR_PROXY_PASSWORD" + } + }, + "agents": [ + { + "name": "auto", + "static": { + "attribute1": "attribute1_value", + "attribute2": 12345 + } + } + ] + } + ``` + + Vous pouvez trouver plus d'informations sur toutes les options de configuration disponibles au bas de ce document. + + + + ## Démarrer l'intégration [#start-integration] + + 1. Exécutez `./pluginctl.sh start` depuis votre terminal + 2. Vérifiez le log dans le répertoire `logs` (ou un autre répertoire que vous avez configuré) pour les erreurs. + 3. Les données devraient maintenant être transférées vers votre compte New Relic et être visibles dans de votre UI infrastructure. + + + + ## Trouvez vos données [#find-data] + + Pour retrouver facilement vos données Unix, téléchargez notre dashboard pré-construit : + + 1. Allez à **[one.newrelic.com](https://one.newrelic.com/)** et cliquez sur **+ Integrations & Agents**. + 2. Cliquez sur l’onglet **Dashboards** . + 3. Dans le champ de recherche, recherchez **Unix**. + 4. Cliquez sur le dashboard Unix pour l'installer sur votre compte. + + + +## Paramètres de configuration de l'intégration [#config-options] + +Les sections suivantes expliquent tous les paramètres de configuration disponibles : + +### Paramètres globaux [#global] + +* `OS` (par défaut : `auto`) : utilisé pour déterminer les commandes à exécuter et comment les analyser. Laissez le paramètre sur `auto` pour que le plugin le détermine (ce qui fonctionne normalement). +* `account_id`: ID de compte New Relic. Le numéro à 6 ou 7 chiffres dans l&apos;URL lorsque vous vous connectez au compte de votre choix. +* `fedramp`:Une chaîne vraie ou fausse pour indiquer que la cible est le point de terminaison autorisé par New Relic Fedramp. +* `insights_insert_key` (sous `insights`) : Vous devez créer une [clé d’insertion Insights, comme décrit ici.](/docs/insights/insights-data-sources/custom-data/insert-custom-events-insights-api#register) +* `insights_data_center` (sous `insights`, par défaut : `us`) : si vous utilisez le data center NR EU pour votre compte, veuillez modifier cette valeur en `eu` ou `EU`. Sinon, vous pouvez laisser cela tel quel ou omettre complètement ce paramètre. + +### Paramètres de l'agent [#agent] + +Ces paramètres se trouvent dans l'objet `agents` de votre fichier de configuration. + +* `name`: Si défini sur `auto`, le plugin utilisera le nom d&apos;hôte de ce serveur. Sinon, définissez le nom d&apos;hôte et l&apos;agentName sur celui défini ici. +* `static` (facultatif) : Un objet contenant des attributs statiques (sous forme de paires nom-valeur) que vous souhaitez voir apparaître dans chaque événement de ce plugin. Par exemple: + +```json + "agents": [ + { + "name": "auto", + "static": { + "data_center": "Antartica", + "customer": "Penguins", + "rank": 1 + } + } + ] +``` + +### Paramètres du proxy [#proxy] + +Si vous utilisez un proxy, l'objet `proxy` facultatif doit être ajouté à l&apos;objet `global` dans `plugin.json`. + +* Les attributs disponibles sont : `proxy_host`, `proxy_port`, `proxy_username` et `proxy_password`. +* Le seul attribut requis dans l’objet `proxy` est `proxy_host`. + +## obfuscationdes informations d’identification + +Pour plus de sécurité, cette intégration prend en charge les valeurs obscurcies pour l'attribut comme informations détaillées, proxy\_username, proxy\_password et tout autre attribut sous l'attribut parent « agents ». Pour ce faire, ajoutez `_obfuscated` au nom de l&apos;attribut et fournissez une valeur obscurcie produite par la [CLI New Relic](https://github.com/newrelic/newrelic-cli): + +1. Installez la [CLI New Relic](https://github.com/newrelic/newrelic-cli#installation) sur n’importe quelle plateforme prise en charge. Il n&apos;a pas besoin d&apos;être installé sur le même hôte que l&apos;intégration Unix. Il est uniquement utilisé pour générer les clés obscurcies, cette intégration gère la désobscurcissement indépendamment. + +2. Générez vos informations d’identification masquées à l’aide de la commande CLI suivante : + + ``` + newrelic agent config obfuscate --key "OBSCURING_KEY" --value "CLEAR_TEXT_PROXY_PASSWORD" + ``` + + Dans cette commande, `OBSCURING_KEY` peut être n’importe quelle valeur souhaitée. Vous pouvez le pointer vers une variable d’environnement existante : + + ``` + newrelic agent config obfuscate --key "YOUR_RANDOM_KEY!" --value "YOUR_PROXY_PASSWORD!" + newrelic agent config obfuscate --key ${NEW_RELIC_CONFIG_OBSCURING_KEY} --value ${OUR_PROXY_PASSWORD} + ``` + +3. Dans l’objet `proxy` de `plugin.json`, renseignez les attributs `proxy_username_obfuscated` et `proxy_password_obfuscated` avec les valeurs renvoyées par la CLI. + +4. Dans `pluginctl.sh`, supprimez le commentaire de la variable `NEW_RELIC_CONFIG_OBSCURING_KEY` et définissez-la sur la même valeur ou variable d&apos;environnement que celle que vous avez utilisée à l&apos;étape 2 pour `OBSCURING_KEY`. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/varnish-cache-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/varnish-cache-monitoring-integration.mdx new file mode 100644 index 00000000000..e03a7d9b1f3 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/varnish-cache-monitoring-integration.mdx @@ -0,0 +1,2170 @@ +--- +title: Varnish monitoring Intégration du cache +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: 'New Relic''s Varnish Cache integration: how to install it and configure it, and what data it reports.' +freshnessValidatedDate: never +translationType: machine +--- + +L'intégration de Varnish Cache [sur hôte](/docs/integrations/host-integrations/getting-started/introduction-host-integrations) collecte et envoie l&apos;inventaire et les métriques de votre environnement Varnish Cache à New Relic afin que vous puissiez monitorer son état de santé. Nous collectons des métriques aux niveaux de l&apos;instance, du verrouillage, du pool de mémoire, du stockage et du backend. + +Lisez la suite pour installer l’intégration et voir quelles données nous collectons. + +## Compatibilité et exigences [#comp-req] + +Notre intégration est compatible avec Varnish Cache 1.0 ou supérieur. + +Avant d’installer l’intégration, assurez-vous que vous répondez aux exigences suivantes : + +* [Installez l'agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic). +* Distribution Linux ou version Windows [compatible avec notre agent d'infrastructure](/docs/infrastructure/new-relic-infrastructure/getting-started/compatibility-requirements-new-relic-infrastructure). + +## Démarrage rapide [#quick] + +instrumentez votre environnement Varnish Cache rapidement et envoyez vos données télémétriques avec installation guidée. Notre installation guidée crée une commande CLI personnalisée pour votre environnement qui télécharge et installe la CLI New Relic et l'agent d'infrastructure. + +Prêt à commencer ? Cliquez sur l'un de ces boutons pour l'essayer. + + + + Installation guidée + + + + Guide d'installation de l'UE + + + +Notre installation guidée utilise l'agent d'infrastructure pour configurer l'intégration de Varnish Cache. De plus, il détecte d’autres applications et sources log exécutées dans votre environnement, puis recommande celles que vous devez intrumenter. + +L'installation guidée fonctionne avec la plupart des configurations. Mais si cela ne répond pas à vos besoins, vous pouvez trouver d'autres méthodes ci-dessous pour commencer monitoring votre environnement Varnish Cache. + +## Installer et activer [#install] + +Pour installer l’intégration de Varnish Cache : + + + + 1. Installez [l'agent d'infrastructure](/docs/integrations/host-integrations/installation/install-infrastructure-host-integrations/#install) et remplacez la variable `INTEGRATION_FILE_NAME` par `nri-varnish`. + + 2. Changer de répertoire vers le dossier d'intégration : + + ``` + cd /etc/newrelic-infra/integrations.d + ``` + + 3. Copie du fichier de configuration d'exemple : + + ``` + sudo cp varnish-config.yml.sample varnish-config.yml + ``` + + 4. Modifiez le fichier `varnish-config.yml` comme décrit dans les [paramètres de configuration](#config). + + + + 1. Téléchargez l'image du programme d'installation `nri-varnish` .MSI depuis : + + [https://download.newrelic.com/infrastructure\_agent/windows/integrations/nri-varnish/nri-varnish-amd64.msi](https://download.newrelic.com/infrastructure_agent/windows/integrations/nri-varnish/nri-varnish-amd64.msi) + + 2. Pour installer à partir de l’invite de commande Windows, exécutez : + + ```shell + msiexec.exe /qn /i PATH\TO\nri-varnish-amd64.msi + ``` + + 3. Dans le répertoire d’intégration, `C:\Program Files\New Relic\newrelic-infra\integrations.d\`, créez une copie du fichier configuration d’exemple en exécutant : + + ```shell + copy varnish-config.yml.sample varnish-config.yml + ``` + + 4. Modifiez le fichier `varnish-config.yml` comme décrit dans les [paramètres de configuration](#config). + + + +Notes supplémentaires : + +* **Advanced:** Il est également possible d&apos;[installer l'intégration à partir d'un fichier tarball](/docs/integrations/host-integrations/installation/install-host-integrations-built-new-relic#tarball). Cela vous donne un contrôle total sur le processus d&apos;installation et de configuration. +* **On-host integrations do not automatically update.** Pour de meilleurs résultats, mettez régulièrement [à jour le package d'intégration](/docs/integrations/host-integrations/installation/update-infrastructure-host-integration-package) et [l'agent d'infrastructure](/docs/infrastructure/new-relic-infrastructure/installation/update-infrastructure-agent). + + + +## Configurer l'intégration [#config] + +La configuration au format YAML d'une intégration est l'endroit où vous pouvez placer les informations de connexion requises et configurer la manière dont les données sont collectées. Les options que vous modifiez dépendent de votre configuration et de vos préférences. + +Le fichier configuration contient des paramètres communs applicables à toutes les intégrations telles que `interval`, `timeout`, `inventory_source`. Pour tout savoir sur ces paramètres courants, reportez-vous à notre document [Format de configuration](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-newer-configuration-format/#configuration-basics) . + + + Si vous utilisez toujours nos legacy fichiers configuration/définition, veuillez vous référer à ce [document](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format/) pour obtenir de l&apos;aide. + + +Les paramètres spécifiques liés à Varnish sont définis à l'aide de la section `env` du fichier de configuration. Ces paramètres contrôlent la connexion à votre Varnish instance, ainsi que d&apos;autres paramètres et fonctionnalités de sécurité. La liste des paramètres valides est décrite dans la section suivante. + +### Varnish instance Paramètres de cache de [#instance-settings] + +L'intégration de Varnish Cache collecte à la fois les informations de métriques (M) et d&apos;inventaire (I). Consultez la colonne **Applies To** ci-dessous pour savoir quels paramètres peuvent être utilisés pour chaque collection spécifique : + +' ' + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Paramètre + + Description + + Défaut + + S'applique à +
+ + **INSTANCE\_NAME** + + + Nom défini par l'utilisateur pour identifier les données de cette instance dans New Relic. **Required**. + + N/A + + MI +
+ + **PARAMS\_CONFIG\_FILE** + + + L'emplacement du fichier de configuration `varnish.params` . Si cet argument est omis, les emplacements suivants seront vérifiés : + + * `/etc/default/varnish/varnish.params` + + * `/etc/sysconfig/varnish/varnish.params` + + Remarque : l’emplacement et le nom du fichier de configuration Varnish peuvent varier. Pour plus de détails, voir [Différents emplacements du fichier de configuration Varnish](https://book.varnish-software.com/4.0/chapters/Getting_Started.html#different-locations-of-the-varnish-configuration-file). Pour Varnish 6 et versions ultérieures, ce paramètre n&apos;est pas obligatoire et l&apos;intégration doit être configurée pour la collecte de métriques uniquement. Voir [l'exemple pour Varnish 6](#example6). + + N/A + + je +
+ + **VARNISH\_NAME** + + + Nom utilisé lors de l'exécution du daemon `varnishd` avec un indicateur `-n` personnalisé. **Optional**. + + N/A + + M +
+ + **METRICS** + + + Définissez sur `true` pour activer la collecte de métriques uniquement. + + `false` + +
+ + **INVENTORY** + + + Définissez sur `true` pour activer la collecte d&apos;inventaire uniquement. + + `false` + +
+ +Les commandes `varnish-config.yml` acceptent les arguments suivants : + +Les valeurs de ces paramètres peuvent être définies de plusieurs manières : + +* Ajout de la valeur directement dans le fichier de configuration. C'est la manière la plus courante. +* Remplacement des valeurs des variables d’environnement à l’aide de la notation `{{}}` . Cela nécessite l&apos;agent d&apos;infrastructure v1.14.0+. Lire la suite [ici](/docs/infrastructure/install-infrastructure-agent/configuration/configure-infrastructure-agent/#passthrough). +* Utilisation de la gestion des secrets. Utilisez ceci pour protéger les informations sensibles, telles que les mots de passe qui seraient exposés en texte brut dans le fichier de configuration. Pour plus d'informations, voir [Gestion des secrets](/docs/integrations/host-integrations/installation/secrets-management). + +### Étiquettes/attributs personnalisés [#labels] + +Les variables d'environnement peuvent être utilisées pour contrôler les paramètres de configuration, tels que votre , et sont ensuite transmises à l&apos;agent d&apos;infrastructure. Pour obtenir des instructions sur l’utilisation de cette fonctionnalité, consultez [Configurer l’agent d’infrastructure](/docs/infrastructure/new-relic-infrastructure/configuration/configure-infrastructure-agent#passthrough). Vous pouvez également décorer vos métriques à l’aide d’étiquettes. Les étiquettes vous permettent d&apos;ajouter des paires valeur-clé à vos métriques que vous pouvez ensuite utiliser pour interroger, filtrer ou regrouper vos métriques.
Notre fichier de configuration d&apos;exemple par défaut inclut des exemples d&apos;étiquettes mais, comme ils ne sont pas obligatoires, vous pouvez supprimer, modifier ou ajouter de nouvelles étiquettes de votre choix. + +``` + labels: + env: production + role: varnish +``` + +## Exemple de configuration [#example-config] + +Exemple de configuration de fichier `varnish-config.yml` : + + + + Voici la configuration de base pour collecter des métriques et des inventaires : + + ``` + integrations: + - name: nri-varnish + env: + INSTANCE_NAME: new_relic + PARAMS_CONFIG_FILE: /etc/default/varnish/varnish.params + interval: 15s + labels: + env: production + role: varnish + inventory_source: config/varnish + ``` + + + + Il s'agit d'une configuration de base pour Varnish 6 ou supérieur. Seules les métriques seront collectées car, à partir de Varnish 6, le fichier de paramètres est obsolète. + + ``` + integrations: + - name: nri-varnish + env: + INSTANCE_NAME: new_relic + METRICS: true + interval: 15s + labels: + env: production + role: varnish + inventory_source: config/varnish + ``` + + + +Pour en savoir plus sur la structure générale de l'intégration sur hôte configuration, voir [configuration](/docs/integrations/integrations-sdk/file-specifications/host-integration-configuration-overview). + +## Rechercher et utiliser des données [#find-and-use] + +Pour trouver vos données d’intégration dans New Relic, accédez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; Infrastructure &gt; Third-party services** et sélectionnez l’un des liens d’intégration Varnish Cache. + +Dans New Relic, les données du cache Varnish sont attachées au type d'événement suivant : + +* `VarnishSample` +* `VarnishLockSample` +* `VarnishStorageSample` +* `VarnishMempoolSample` +* `VarnishBackendSample` + +Pour en savoir plus sur la recherche et l’utilisation de vos données, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +L'intégration Varnish Cache collecte l'attribut de données métriques suivant. Chaque nom de métrique est préfixé par un indicateur de catégorie et un point, tel que `bans.` ou `main.`. + + + Un certain nombre de métriques sont calculées sous forme de taux (par seconde) au lieu de totaux comme les noms des métriques pourraient le suggérer. Pour plus de détails sur les métriques calculées en tant que taux, reportez-vous au [fichier spec.csv](https://github.com/newrelic/nri-varnish/blob/master/spec.csv). + + +### Échantillon de Varnish métriques [#varnish-sample] + +Ces attributs peuvent être trouvés en interrogeant les types d'événements VarnishSample. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `backend.connectionBusy` + + Nombre de fois où la connexion maximale a été atteinte. +
+ `backend.connectionFails` + + Nombre de connexions échouées au serveur sauvegardé. +
+ `backend.connectionRecycles` + + Nombre de connexions backend qui ont été recyclées. +
+ `backend.connectionRetries` + + Nombre de connexions backend qui ont été retentées. +
+ `backend.connectionReuses` + + Nombre de réutilisations de connexions backend. +
+ `backend.connectionSuccess` + + Nombre de connexions backend réussies, +
+ `backend.connectionUnHealthy` + + Nombre de connexions backend qui n'ont pas été tentées en raison d'un statut backend « malsain ». +
+ `backend.fetches` + + Nombre total de récupérations backend initiées. +
+ `backend.requests` + + Nombre total de de backend connexion requests effectuées. +
+ `bans.added` + + Compteur d'interdictions ajouté à la liste des interdictions. +
+ `bans.completed` + + Nombre d'interdictions marquées comme « terminées ». +
+ `bans.cutoffLurkerKilled` + + Nombre d'objets tués par des interdictions pour coupure (lurker). +
+ `bans.deleted` + + Compteur d'interdictions supprimées de la liste des interdictions. +
+ `bans.dups` + + Nombre d'interdictions remplacées par des interdictions ultérieures identiques. +
+ `bans.fragmentationInBytes` + + Octets supplémentaires dans les listes d'interdiction persistantes en raison de la fragmentation. +
+ `bans.lookupKilled` + + Nombre d'objets tués par des interdictions lors de la recherche d'objets. +
+ `bans.lookupTestsTested` + + Nombre de tests et d'objets testés les uns par rapport aux autres pendant la recherche. +
+ `bans.lurkerCon` + + Nombre de fois où le ban-lurker a dû attendre des recherches. +
+ `bans.lurkerKilled` + + Nombre d'objets tués par le ban-lurker. +
+ `bans.lurkerTested` + + Compte du nombre d'interdictions et d'objets testés les uns contre les autres par le ban-lurker. +
+ `bans.lurkerTestsTested` + + Compte du nombre de tests et d'objets testés les uns contre les autres par le ban-lurker. +
+ `bans.obj` + + Nombre d'interdictions utilisant `obj.*` variables. Ces interdictions peuvent éventuellement être effacées par le ban-lurker. +
+ `bans.persistedInBytes` + + Octets utilisés par les listes d'interdiction persistantes. +
+ `bans.req` + + Nombre d'interdictions qui utilisent `req.*` variables. Ces interdictions ne peuvent pas être effacées par le ban-lurker. +
+ `bans.tested` + + Nombre d'interdictions et d'objets testés les uns contre les autres lors de la recherche Hacher. +
+ `cache.graceHits` + + Compte de taux d'accès au cache avec grâce. Un taux d'accès au cache avec grâce est un taux d'accès au cache où l'objet est expiré. Ces hits sont également inclus dans le compteur `cache_hit` . +
+ `cache.hits` + + Nombre de fois qu'un objet a été livré à un client sans être récupéré auprès d'un serveur backend. +
+ `cache.misses` + + Nombre de fois où l'objet a été récupéré depuis le backend avant de le livrer au client. +
+ `cache.missHits` + + Nombre de fois qu'un objet touché a été renvoyé pour une réponse manquée. +
+ `cache.passHits` + + Nombre de fois qu'un objet touché a été renvoyé pour une réponse de réussite. +
+ `esi.errors` + + Erreurs d'analyse Edge Side Included (ESI) (déverrouillage). +
+ `esi.warnings` + + Avertissements d'analyse Edge Side Included (ESI) (déverrouillage). +
+ `fetch.bad` + + La longueur/récupération `beresp.body` n&apos;a pas pu être déterminée. +
+ `fetch.chuncked` + + Le `beresp.body` est fragmenté. +
+ `fetch.contentLength` + + Le `beresp.body` avec la longueur du contenu. +
+ `fetch.eof` + + Le `beresp.body` avec EOF. +
+ `fetch.failed` + + Le `beresp` a échoué. +
+ `fetch.head` + + Le `beresp` sans corps car la requête est HEAD. +
+ `fetch.noBody` + + Le `beresp` sans corps. +
+ `fetch.noBody1xx` + + Le `beresp` sans corps à cause de la réponse 1XX. +
+ `fetch.noBody204` + + Le `beresp` sans corps à cause de la réponse 204. +
+ `fetch.noBody304` + + Le `beresp` sans corps à cause de la réponse 304. +
+ `fetch.noThreadFail` + + La récupération `beresp` a échoué, aucun thread disponible. +
+ `hcb.inserts` + + Nombre d'inserts de hachage basés sur l'arbre de bits critiques (HCB). +
+ `hcb.lock` + + Nombre de recherches HCB avec verrou. +
+ `hcb.noLock` + + Nombre de recherches HCB sans verrou. +
+ `lru.limited` + + Un nombre de fois plus d'espace de stockage était nécessaire, mais la limite a été atteinte. +
+ `lru.moved` + + Nombre d'opérations de déplacement effectuées sur la liste LRU. +
+ `lru.nuked` + + Nombre d'objets les moins récemment utilisés (LRU) expulsés de force du stockage pour faire de la place à un nouvel objet. +
+ `main.backends` + + Nombre de backend. +
+ `main.bans` + + Nombre d'interdictions. +
+ `main.busyKilled` + + Nombre de requests tuées après une mise en veille sur un objhdr occupé. +
+ `main.busySleep` + + Nombre de requests envoyées pour dormir sur un objhdr occupé. +
+ `main.busyWakeup` + + Nombre de requests réveillées après une mise en veille sur un objhdr occupé. +
+ `main.expired` + + Nombre d'objets expirés. +
+ `main.expiredMailed` + + Nombre d'objets envoyés au fil d'expiration. +
+ `main.expiredReceived` + + Nombre d'objets reçus par thread d'expiration. +
+ `main.gunzip` + + Nombre d'opérations gunzip. +
+ `main.gunzipTest` + + Nombre d'opérations de test gunzip. +
+ `main.gzip` + + Nombre d'opérations gzip. +
+ `main.objectcores` + + Nombre de structures objectcore créées. +
+ `main.objectheads` + + Nombre de structures objectées créées. +
+ `main.objects` + + Nombre de structures d'objets créées. +
+ `main.passedRequests` + + Nombre total requests passées vues. +
+ `main.pipeSessions` + + Nombre total de séances de pipes observées. +
+ `main.pools` + + Nombre de pools de threads. +
+ `main.purgeObjects` + + Nombre d'objets purgés. +
+ `main.purgeOperations` + + Nombre d'opérations de purge exécutées. +
+ `main.reqDropped` + + Nombre de requests abandonnées. +
+ `main.sessions` + + Nombre total de séances vues. +
+ `main.sessQueueLength` + + Durée de la file d'attente de session en attente de threads. +
+ `main.summs` + + Nombre de fois où les statistiques par thread ont été additionnées dans les compteurs globaux. +
+ `main.syntheticResponses` + + Réponses synthétiques totales réalisées. +
+ `main.threads` + + Nombre total de threads. +
+ `main.threadsCreated` + + Nombre total de threads créés dans tous les pools. +
+ `main.threadsDestroyed` + + Nombre total de threads détruits dans tous les pools. +
+ `main.threadsFailed` + + Nombre de fois où la création d'un thread a échoué. +
+ `main.threadsLimited` + + Nombre de fois où davantage de threads ont été nécessaires, mais la limite a été atteinte dans un pool de threads. +
+ `main.unresurrectedObjects` + + Nombre d'objets non ressuscités. +
+ `main.uptimeInMilliseconds` + + Le temps de disponibilité du processus enfant, en millisecondes. +
+ `main.vclAvailable` + + Nombre de langages de configuration Varnish (VCL) disponibles. +
+ `main.vclDiscarded` + + Nombre de VCL rejetés. +
+ `main.vclFails` + + Nombre d'échecs VCL. +
+ `main.vclLoaded` + + Nombre total de VCL chargés. +
+ `main.vmodsLoaded` + + Nombre de modules Varnish chargés (VMOD). +
+ `mgt.childDied` + + Nombre de fois où le processus enfant est mort à cause de signaux. +
+ `mgt.childDump` + + Nombre de fois où le processus enfant a produit des vidages de mémoire. +
+ `mgt.childExit` + + Nombre de fois où le processus enfant a été arrêté proprement. +
+ `mgt.childPanic` + + Nombre de fois où le processus de gestion a pris un enfant en panique. +
+ `mgt.childStart` + + Nombre de fois que le processus enfant a été démarré. +
+ `mgt.childStop` + + Nombre de fois où le processus enfant a été arrêté proprement. +
+ `mgt.uptimeInMilliseconds` + + Le temps de disponibilité du processus de gestion, en millisecondes. +
+ `net.400Errors` + + Nombre de requests clients reçues, sujettes à 400 erreurs. +
+ `net.417Errors` + + Nombre de requests clients reçues, sujettes à des erreurs 417 +
+ `net.httpOverflow` + + Nombre de débordements d'en-tête HTTP. +
+ `net.pipe.inInBytes` + + Nombre total d'octets transmis par les clients dans les sessions de pipeline. +
+ `net.pipe.outInBytes` + + Nombre total d'octets transmis aux clients dans les sessions de pipeline. +
+ `net.pipereq.headerInBytes` + + Nombre total d'octets de demande reçus pour les sessions canalisées. +
+ `net.request.bodyInBytes` + + Corps total de la requête transmis, en octets. +
+ `net.request.headerInBytes` + + Nombre total d'en-têtes de requête transmis, en octets. +
+ `net.requests` + + Nombre de bonnes requests de clients reçues. +
+ `net.response.bodyInBytes` + + Corps total de la réponse transmis, en octets. +
+ `net.response.headerInBytes` + + Nombre total d'en-têtes de réponse transmis, en octets. +
+ `sess.backendClose` + + Nombre de sessions fermées avec l'erreur `RESP_CLOSE`, (backend/VCL a demandé la fermeture). +
+ `sess.badClose` + + Nombre de sessions fermées avec l'erreur `Error RX_BAD`, (mauvaise demande/réponse reçue). +
+ `sess.bodyFailClose` + + Nombre de sessions fermées avec l'erreur `Error RX_BODY`, (Échec de réception de req.body). +
+ `sess.clientClose` + + Nombre de sessions fermées avec l'erreur `REM_CLOSE`, (Client fermé). +
+ `sess.clientReqClose` + + Nombre de sessions fermées avec l'erreur `REQ_CLOSE`, (Client a demandé la fermeture). +
+ `sess.closed` + + Nombre total de sessions clôturées. +
+ `sess.closedError` + + Nombre total de sessions fermées avec des erreurs. +
+ `sess.dropped` + + Nombre de sessions abandonnées pour le thread. +
+ `sess.eofTxnClose` + + Nombre de sessions fermées avec l'erreur `TX_EOF`, (transmission EOF). +
+ `sess.errorTxnClose` + + Nombre de sessions fermées avec l'erreur `TX_ERROR`, (Erreur de transaction). +
+ `sess.herd` + + Nombre de fois que le `timeout_linger` a été déclenché. +
+ `sess.junkClose` + + Nombre de sessions fermées avec l'erreur `RX_JUNK`, (Données indésirables reçues). +
+ `sess.overflowClose` + + Nombre de sessions fermées avec l'erreur `RX_OVERFLOW`, (Dépassement de tampon reçu). +
+ `sess.overloadClose` + + Nombre de sessions fermées avec l'erreur `OVERLOAD`, (Manque de ressources). +
+ `sess.pipeOverflowClose` + + Nombre de sessions fermées avec l'erreur `PIPE_OVERFLOW`, (dépassement de capacité du canal de session). +
+ `sess.pipeTxnClose` + + Nombre de sessions fermées avec l'erreur `TX_PIPE`, (Transaction canalisée). +
+ `sess.queued` + + Nombre de sessions en file d'attente pour le thread. +
+ `sess.readAhead` + + Session à lire à l'avance. +
+ `sess.requestHTTP10Close` + + Nombre de sessions fermées avec l'erreur `REQ_HTTP10`, (Proto &lt; HTTP/1.1). +
+ `sess.requestHTTP20Close` + + Nombre de sessions fermées avec l'erreur `REQ_HTTP20`, (HTTP2 non accepté). +
+ `sess.shortRangeClose` + + Nombre de sessions fermées avec l'erreur `RANGE_SHORT`, (Données insuffisantes pour la plage). +
+ `sess.timeoutClose` + + Nombre de sessions fermées avec l'erreur `RX_TIMEOUT`, (Délai de réception dépassé). +
+ `sess.vclFailClose` + + Nombre de sessions fermées avec l'erreur `VCL_FAILURE`, (échec VCL). +
+ `session.connections` + + Nombre de sessions acceptées avec succès. +
+ `session.drops` + + Le nombre de sessions a été supprimé silencieusement en raison du manque de thread de travail. +
+ `session.fail` + + Nombre d'échecs d'acceptation de connexion TCP. +
+ `shm.contentions` + + Nombre de conflits de mémoire partagée (SHM) MTX. +
+ `shm.cycles` + + Nombre de cycles SHM dans la mémoire tampon. +
+ `shm.flushes` + + Nombre de chasses d'eau SHM dues à un débordement. +
+ `shm.records` + + Nombre d'enregistrements SHM. +
+ `shm.writes` + + Nombre d'écritures SHM. +
+ `workspace.backendOverflow` + + Nombre de fois où nous avons manqué d'espace dans `workspace_backend`. +
+ `workspace.clientOverflow` + + Nombre de fois où nous avons manqué d'espace dans `workspace_client`. +
+ `workspace.deliveryFail` + + La livraison a échoué en raison d'un espace de travail insuffisant. +
+ `workspace.sessionOverflow` + + Nombre de fois où nous avons manqué d'espace dans `workspace_session`. +
+ `workspace.threadOverflow` + + Nombre de fois où nous avons manqué d'espace dans `workspace_thread`. +
+ +### Échantillon de mèches de Varnish métriques [#varnish-lock-sample] + +Ces attributs peuvent être trouvés en interrogeant le type d'événement `VarnishLockSample` . + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `lock.created` + + Nombre de verrous créés. +
+ `lock.destroyed` + + Nombre de serrures détruites. +
+ `lock.locks` + + Nombre d'opérations de verrouillage. +
+ +### Métriques d'échantillons de stockage Varnish [#varnish-storage-sample] + +Ces attributs peuvent être trouvés en interrogeant le type d'événement `VarnishStorageSample` . + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `storage.allocFails` + + Nombre de fois où le stockage n'a pas réussi à fournir un segment de stockage. +
+ `storage.allocInBytes` + + Nombre total d'octets alloués par ce stockage. +
+ `storage.allocOustanding` + + Nombre d'allocations de stockage en attente. +
+ `storage.allocReqs` + + Nombre de fois où le stockage a été invité à fournir un segment de stockage. +
+ `storage.availableInBytes` + + Nombre d'octets restants dans le stockage. +
+ `storage.freeInBytes` + + Nombre total d'octets renvoyés vers ce stockage. +
+ `storage.outstandingInBytes` + + Nombre d'octets alloués à partir du stockage. +
+ +### Varnish mempool sample métriques [#varnish-mempool-sample] + +Ces attributs peuvent être trouvés en interrogeant le type d'événement `VarnishMempoolSample` . + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `mempool.allocatedSizeInBytes` + + Taille allouée du pool de mémoire, en octets. +
+ `mempool.allocs` + + Allocations de pool de mémoire. +
+ `mempool.frees` + + Nombre de pools de mémoire libres. +
+ `mempool.live` + + Nombre de pools de mémoire utilisés. +
+ `mempool.pool` + + Compter dans le pool de mémoire. +
+ `mempool.ranDry` + + La piscine est à sec. +
+ `mempool.recycles` + + Recyclé de la piscine. +
+ `mempool.requestSizeInBytes` + + Taille de la demande du pool de mémoire, en octets. +
+ `mempool.surplus` + + Trop nombreux pour la piscine. +
+ `mempool.timeouts` + + Délai d'attente pour la piscine. +
+ `mempool.tooSmall` + + Trop petit pour être recyclé. +
+ +### Varnish backend Exemples de mesures [#varnish-backend-sample] + +Ces attributs peuvent être trouvés en interrogeant le type d'événement `VarnishBackendSample` . + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ métrique + + Description +
+ `backend.busyFetches` + + Les récupérations n'ont pas été tentées car le backend est occupé. +
+ `backend.connections` + + Nombre de connexions simultanées au backend. +
+ `backend.connectionsFailed` + + Nombre de connexions backend ayant échoué. +
+ `backend.connectionsNotAttempted` + + Nombre de connexions backend non tentées. +
+ `backend.happy` + + Bonnes sondes de santé. +
+ `backend.unhealtyFetches` + + Les récupérations n'ont pas été tentées en raison d'un backend défectueux +
+ `net.backend.pipeHeaderInBytes` + + Nombre total d'octets de demande envoyés pour les sessions canalisées. +
+ `net.backend.pipeInInBytes` + + Nombre total d'octets transférés depuis le backend dans les sessions de pipeline. +
+ `net.backend.pipeOutInBytes` + + Nombre total d'octets transmis au backend dans les sessions de pipeline. +
+ `net.backend.requestBodyInBytes` + + Nombre total d'octets envoyés dans le corps de la requête backend. +
+ `net.backend.requestHeaderInBytes` + + Nombre total d'octets d'en-tête de requête backend envoyés. +
+ `net.backend.requests` + + Nombre de backend requests envoyées, +
+ `net.backend.responseBodyInBytes` + + Nombre total d'octets du corps de réponse du backend reçus. +
+ `net.backend.responseHeaderInBytes` + + Nombre total d'octets d'en-tête de réponse backend reçus. +
+ +## Données d'inventaire [#inventory] + +L'intégration de Varnish Cache capture les paramètres de configuration. Il analyse le fichier de configuration `varnish.params` pour tous les paramètres actifs. + +Les données sont disponibles sur la [page Inventaire](/docs/infrastructure/new-relic-infrastructure/infrastructure-ui-pages/infrastructure-inventory-page-search-your-entire-infrastructure), sous la source **config/varnish** . Pour en savoir plus sur les données d’inventaire, consultez [Comprendre les données d’intégration](/docs/infrastructure/integrations-getting-started/getting-started/understand-integration-data-data-types#inventory-data). + +## Vérifiez le code source [#source-code] + +Cette intégration est un logiciel open source. Cela signifie que vous pouvez [parcourir son code source](https://github.com/newrelic/nri-varnish) et envoyer des améliorations, ou créer votre propre fork et le construire. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/vertica-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/vertica-monitoring-integration.mdx new file mode 100644 index 00000000000..82f043e0070 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/vertica-monitoring-integration.mdx @@ -0,0 +1,156 @@ +--- +title: Intégration Vertica +tags: + - Vertica integration + - New Relic integrations +metaDescription: Use New Relics infrastructure agent to get a dashboard with metrics from your Vertica. +freshnessValidatedDate: '2023-09-01T00:00:00.000Z' +translationType: machine +--- + +Notre intégration Vertica monitore les performances de votre stockage de données. + +Vertica dashboard + +
+ Après avoir mis en place notre intégration Vertica , nous vous fournissons un dashboard pour vos métriques Vertica . +
+ + + + ## Installer l' agent d'infrastructure [#infra-install] + + Vous pouvez installer l' agent d'infrastructure de deux manières différentes : + + * Notre [guide d'installation](https://one.newrelic.com/nr1-core?state=4f81feab-35f7-e97e-9903-52510f8542bd) est un outil CLI qui inspecte votre système et installe agent l&apos; d&apos;infrastructure aux côtés de l&apos;monitoring d&apos;applicationqui agent fonctionne le mieux pour votre système. Pour en savoir plus sur le fonctionnement de notre guide d&apos;installation, consultez notre [aperçu du guide d'installation](/docs/infrastructure/host-integrations/installation/new-relic-guided-install-overview). + * Si vous préférez installer notre agent d'infrastructure manuellement, vous pouvez suivre un tutoriel d' installation manuelle pour [Linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux), [Windows](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows/) ou [macOS](/docs/infrastructure/install-infrastructure-agent/macos-installation/install-infrastructure-monitoring-agent-macos/). + + + + ## Utiliser `nri-flex` [#flex] + + Flex est fourni avec l'agent New Relic Infrastructure. Vous devez configurer `nri-flex` pour Vertica et créer un fichier de configuration flex. + + Suivez ces étapes : + + 1. Créez un fichier nommé `vertica-flex-config.yml` dans ce chemin : + + ```shell + /etc/newrelic-infra/integrations.d + ``` + + 2. Mettez à jour le fichier `vertica-flex-config.yml` avec cette configuration : + + * `EVENT_TYPE`: Vous pouvez considérer `EVENT_TYPE` comme une table de base de données New Relic que vous pouvez interroger à l&apos;aide de NRQL. + * `COMMAND`:Ceci contient la commande qui est utilisée pour imprimer les métriques sur le terminal. + + Une fois votre fichier de configuration mis à jour, il ressemblera à ci-dessous : + + ```yml + --- + integrations: + - name: nri-flex + config: + name: VerticaFlex + apis: + - database: vertica + db_conn: 'vertica://dbadmin:vertica@13.235.79.230:5433/dbadmin' + logging: + open: true + db_async: true # process queries async + db_queries: + - name: VerticaFindCitiesDetails + run: SELECT * FROM cities; + - name: VerticaDiskSpaceUsedByTables + run: SELECT projection_schema, anchor_table_name, to_char(sum(used_bytes)/1024/1024/1024,'999,999.99') as disk_space_used_gb FROM projection_storage + GROUP by projection_schema, anchor_table_name ORDER by disk_space_used_gb desc limit 50; + - name: VerticaFreeDiskSpace + run: SELECT to_char(sum(disk_space_free_mb)/1024,'999,999,999') AS disk_space_free_gb, to_char(sum(disk_space_used_mb)/1024,'999,999,999') AS disk_space_used_gb FROM disk_storage; + - name: VerticaUserInformation + run: SELECT user_name, is_super_user, resource_pool, memory_cap_kb, temp_space_cap_kb, run_time_cap FROM users; + - name: VerticaUserDetails + run: SELECT * FROM user_sessions; + - name: VerticaQueriesByUser + run: SELECT * FROM query_profiles WHERE user_name ILIKE '%dbadmin%'; + - name: VerticaUserRolesInformation + run: SELECT * FROM roles; + - name: VerticaResourcePoolAssignments + run: SELECT user_name, resource_pool FROM users; + - name: VerticaTableInfo + run: SELECT table_name, is_flextable, is_temp_table, is_system_table, count(*) FROM tables GROUP by 1,2,3,4; + - name: VerticaActiveEvents + run: SELECT * FROM active_events WHERE event_problem_description NOT ILIKE '%state to UP'; + - name: VerticaDiskStorage + run: SELECT node_name, storage_path, storage_usage, storage_status, disk_space_free_percent FROM disk_storage; + - name: VerticaLongRunningQueries + run: SELECT query_duration_us/1000000/60 AS query_duration_mins, table_name, user_name, processed_row_count AS rows_processed, substr(query,0,70) FROM query_profiles ORDER BY query_duration_us DESC LIMIT 250; + - name: VerticaLicenseConsumption + run: SELECT GET_COMPLIANCE_STATUS(); + - name: VerticaAudit + run: SELECT AUDIT(''); + + ``` + + + + ## Transférez votre log Vertica vers New Relic [#logs] + + Vous pouvez utiliser notre [transfert de log](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/) pour transférer les logs Vertica vers New Relic. + + Sur les machines Linux, vous pouvez trouver votre fichier de log nommé `logging.yml` dans ce chemin : + + ```shell + /etc/newrelic-infra/logging.d/ + ``` + + Après avoir créé le fichier de log, ajoutez le script suivant au fichier `logging.yml` : + + ```yml + logs: + - name: vertica.log + file: /home/dbadmin/vdb/v_vdb_node0001_catalog/vertica.log + attributes: + logtype: vertica_log + ``` + + + + ## Redémarrez l'agent New Relic Infrastructure [#restart] + + Avant de pouvoir commencer à lire vos données, utilisez les instructions de notre [documentation suragent d'infrastructure ](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/)pour redémarrer votre agent d&apos;infrastructure. + + ```bash + sudo systemctl restart newrelic-infra.service + ``` + + Dans quelques minutes, votre application enverra des métriques à [one.newrelic.com](https://one.newrelic.com). + + + + ## Trouvez vos données [#find-data] + + Vous pouvez choisir notre modèle dashboard prédéfini nommé `Vertica` pour monitorer les métriques de votre application Vertica . Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com), aller à la page **+ Integrations & Agents** . + 2. Cliquez sur **Dashboards**. + 3. Dans la barre de recherche, tapez `vertica`. + 4. Le Vertica dashboard devrait apparaître. Cliquez dessus pour l'installer. + + Votre Vertica dashboard est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l&apos;utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + Voici une requête NRQL pour rechercher des informations dans la base de données utilisateur pour des points de données tels que le nom de l'utilisateur, le pool de ressources, la limite de mémoire, la limite d'espace temporaire et la limite de temps d'exécution. + + ```sql + SELECT user_name, is_super_user, resource_pool, memory_cap_kb, temp_space_cap_kb, run_time_cap + FROM VerticaUserInformation; + ``` + + + +## Quelle est la prochaine étape ? [#next] + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d&apos;affichage ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/vmware-vsphere-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/vmware-vsphere-monitoring-integration.mdx new file mode 100644 index 00000000000..9e8abef1778 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/vmware-vsphere-monitoring-integration.mdx @@ -0,0 +1,1987 @@ +--- +title: Intégration monitoring VMware vSphere +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: An introduction to New Relic's open-source VMware vSphere / ESXi integration. +freshnessValidatedDate: never +translationType: machine +--- + +L'intégration VMware vSphere de New Relic vous aide à comprendre l'état de santé et les performances de votre environnement vSphere. Tu peux: + +* Requêtez des données pour obtenir des informations détaillées sur les performances de vos hyperviseurs, machines virtuelles, etc. +* Passez des vues de haut niveau aux données les plus granulaires. + +Notre intégration utilise l'[API vSphere](https://code.vmware.com/apis/704/vsphere) pour collecter les métriques et événements générés par tous les composants de vSphere, et transmet les données à notre plateforme via l&apos;agent infrastructure . + + + +## Pourquoi c'est important [#features] + +Avec notre intégration vSphere, vous pouvez : + +* instrumenter et monitorer plusieurs instances vSphere en utilisant le même compte. +* Collectez des données sur les instantanés, les machines virtuelles, les hôtes, les pools de ressources, les clusters et les magasins de données, y compris les balises. +* Monitorer la santé de vos hyperviseurs et VM à l'aide de nos graphiques et dashboards. +* Utilisez les données récupérées pour monitorer les indicateurs clés de performance et de mise à l’échelle des capacités. +* Définissez en fonction de toutes les métriques collectées à partir de vCenter. +* Créez [une charge de travail](/docs/new-relic-one/use-new-relic-one/core-concepts/new-relic-one-workloads-isolate-resolve-incidents-faster) pour regrouper les ressources et vous concentrer sur les données clés. + +## Compatibilité et exigences [#requirements] + +Notre intégration est compatible avec VMware vSphere 6.5 ou supérieur. + +Avant d’installer l’intégration, assurez-vous que vous répondez aux exigences suivantes : + +* [Agent d'infrastructure installé sur un hôte](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic) +* Compte de service vCenter disposant au moins d'autorisations globales en lecture seule avec l'option `propagate to children` cochée + + + **Large environments:** Dans les environnements comportant plus de 800 machines virtuelles, l’intégration ne peut pas signaler toutes les données et peut échouer. Nous proposons une solution de contournement qui préservera toutes les métriques et événements, mais elle désactivera l&apos;enregistrement des entités. Pour appliquer la solution de contournement, ajoutez la variable d’environnement suivante au fichier de configuration : + + ```yaml + integrations: + - name: nri-vsphere + env: + # Integration configuration parameters. + + EVENTS: true + METRICS: true + + ``` + + +## Installer l'intégration [#install] + +Le moyen le plus simple d'installer l'intégration est de suivre notre [installation guidée](https://onenr.io/0Bj3VYmGbRX): + +1. connectez-vous à [one.newrelic.com](https://onenr.io/0Bj3VYmGbRX). +2. Cliquez sur **Integrations & Agents**, recherchez « vSphere » et cliquez sur l’intégration. +3. Suivez les étapes de l'UI. + +Si vous devez effectuer l'installation manuellement, consultez les sections ci-dessous. + + + + 1. Installez [l’agent d’infrastructure](/docs/integrations/host-integrations/installation/install-infrastructure-host-integrations/#install) et remplacez `INTEGRATION_FILE_NAME` par `nri-vsphere` lors de l’exécution de la commande d’installation. + + 2. Changez le répertoire vers le dossier d'intégration : + + ``` + cd /etc/newrelic-infra/integrations.d + ``` + + 3. Copie du fichier de configuration d'exemple : + + ``` + sudo cp vsphere-config.yml.sample vsphere-config.yml + ``` + + 4. Modifiez le fichier `vsphere-config.yml` comme décrit dans les [paramètres de configuration](#config). + + + + 1. Téléchargez l'image du programme d'installation MSI `nri-vsphere` à partir de : + + [download.newrelic.com/infrastructure\_agent/windows/integrations/nri-vsphere/nri-vsphere-amd64.msi](https://download.newrelic.com/infrastructure_agent/windows/integrations/nri-vsphere/nri-vsphere-amd64.msi) + + 2. Pour installer à partir de l’invite de commande Windows, exécutez : + + ``` + msiexec.exe /qn /i PATH\TO\nri-vsphere-amd64.msi + ``` + + 3. Dans le répertoire d’intégration, `C:\Program Files\New Relic\newrelic-infra\integrations.d\`, créez une copie du fichier configuration d’exemple en exécutant : + + ``` + cp vsphere-config.yml.sample vsphere-config.yml + ``` + + 4. Modifiez le fichier `vsphere-config.yml` comme décrit dans les [paramètres de configuration](#config). + + + + Vous pouvez également [installer l'intégration à partir d'un fichier tarball](/docs/integrations/host-integrations/installation/install-host-integrations-built-new-relic#tarball). Cela vous donne un contrôle total sur le processus d&apos;installation et de configuration. + + + + + +## Configurer l'intégration [#config] + +La configuration au format YAML d'une intégration est l'endroit où vous pouvez placer les informations de connexion requises et configurer la manière dont les données sont collectées. Les options que vous modifiez dépendent de votre configuration et de vos préférences. + +Pour configurer l'intégration vSphere, vous devez définir l'URL des points de terminaison d'API vSphere, ainsi que votre nom d'utilisateur et votre mot de passe vSphere. Pour des exemples de configuration, consultez les [exemples de fichiers de configuration](#example-config). Certaines fonctionnalités d&apos;intégration vSphere sont facultatives et peuvent être activées via les paramètres configuration . + +De plus, avec [la gestion des secrets](/docs/integrations/host-integrations/installation/secrets-management), vous pouvez configurer l&apos;intégration sur hôte avec l&apos;agent infrastructure de New Relic pour utiliser des données sensibles (telles que les mots de passe) sans avoir à les écrire en texte brut dans le fichier configuration de l&apos;intégration. + + + + Pour collecter l'événement vSphere, utilisez la variable d'environnement `ENABLE_VSPHERE_EVENTS` . + + L'intégration collecte les événements entre l'heure actuelle et le dernier événement récupéré pour chaque data center. Il stocke les informations concernant le dernier événement récupéré dans un cache qui est mis à jour après chaque exécution. événement ne sont disponibles que si l'intégration est connectée à un vCenter et non directement à un hôte ESXi. + + Le nombre d'événements collectés par requête peut être ajusté en modifiant `EVENTS_PAGE_SIZE`, qui est défini sur `100` par défaut. + + Les événements sont disponibles dans la page **Events** et peuvent être interrogés via [NRQL](/docs/query-data/nrql-new-relic-query-language/getting-started/introduction-nrql) comme `InfrastructureEvent` sous `vSphereEvent`. Voici un exemple de données d’événement vSphere : + + ``` + "summary": "User dcui@127.0.0.1 logged out (login time: Tuesday, 14 July, 2020 08:32:09 AM, number of API invocations: 0, user agent: VMware-client/6.5.0)", + "vSphereEvent.computeResource": "cluster1", + "vSphereEvent.datacenter": "Prod Datacenter", + "vSphereEvent.date": "Tue, 14 Jul 2020 09:03:51 UTC", + "vSphereEvent.host": "192.168.0.230", + "vSphereEvent.userName": "dcui" + ``` + + + + Pour collecter des données instantanées, utilisez la variable d’environnement `ENABLE_VSPHERE_SNAPSHOTS` . + + Les données instantanées peuvent être trouvées dans `VSphereSnapshotVmSample`. Les données collectées couvrent l&apos;espace total et unique occupé par les fichiers du disque et de la mémoire, l&apos;arborescence des instantanés et l&apos;heure de création. + + Vous pouvez utiliser ces informations pour créer des requêtes [NRQL](/docs/query-data/nrql-new-relic-query-language/getting-started/introduction-nrql) , [des dashboards](/docs/dashboards/new-relic-one-dashboards/get-started/introduction-new-relic-one-dashboards) et [des alertes](/docs/alerts/new-relic-alerts/defining-conditions/create-alert-conditions-nrql-queries), car elles sont liées à l&apos;entité de machine virtuelle correspondante. + + + + Pour collecter la balise vSphere, utilisez la variable d’environnement `ENABLE_VSPHERE_TAGS` . + + les balises sont disponibles en tant qu'attribut dans l'échantillon d'entité correspondant sous la forme `label.tagCategory:tagName`. + + Si deux balises de la même catégorie sont attribuées à une ressource, elles sont ajoutées à un attribut unique séparé par un caractère pipe. Par exemple : `label.tagCategory:tagName|tagName`2. + + La balise peut être utilisée pour exécuter une requête [NRQL](/docs/query-data/nrql-new-relic-query-language/getting-started/introduction-nrql) , filtrer l&apos;entité dans notre [explorateur d'entités](/docs/new-relic-one/use-new-relic-one/ui-data/new-relic-one-entity-explorer) et créer [un dashboard](/docs/dashboards/new-relic-one-dashboards/get-started/introduction-new-relic-one-dashboards) et [des alertes](/docs/alerts/new-relic-alerts/defining-conditions/create-alert-conditions-nrql-queries). + + + + Le filtrage des ressources vous permet de spécifier les ressources que vous souhaitez monitorer en déclarant un ensemble de balises que les ressources doivent avoir pour être monitorées. + + Les ressources nécessitent une correspondance sur une (ou plusieurs) balise de filtre pour être incluses. Si aucune balise de ressource ne correspond à aucune balise de filtre, aucune information sur cette ressource n'est envoyée à New Relic. + + Pour utiliser le filtrage des ressources par tag , vous devez activer la variable d'environnement `ENABLE_VSPHERE_TAGS`. + + Une expression de filtre tag est une liste de paires de chaînes séparées par des espaces au format `category=name`. + + Par exemple, pour récupérer uniquement les ressources avec une catégorie tag `region` et inclure les régions `us` et `eu`, utilisez une expression de filtre comme : `region=us region=eu` + + ``` + INCLUDE_TAGS: > + region=us + region=eu + ``` + + Pour activer le filtrage des ressources par tag, modifiez votre fichier configuration intégration et ajoutez l'option `INCLUDE_TAGS` avec l&apos;expression de filtre souhaitée. + + + Notez que les ressources data center agissant comme racine de l'arborescence des ressources DOIVENT avoir une balise attachée ET correspondre à l'expression de filtre pour que d'autres ressources enfants soient récupérées. + + + + + Les mesures de performances offrent une meilleure compréhension de l'état actuel des ressources VMware et peuvent être collectées **in addition** selon les mesures collectées par défaut ; et incluses dans les exemples ; décrits au bas de la page. + + Toutes les métriques collectées sont incluses dans l’échantillon correspondant avec le préfixe `perf.` attaché au nom. Par exemple, `net.packetsRx.summation` est collecté et envoyé sous la forme `perf.net.packetsRx.summation`. + + Pour collecter les mesures de performances de vSphere, utilisez la variable d’environnement `ENABLE_VSPHERE_PERF_METRICS` . + + Les données sont collectées selon les paramètres du fichier de configuration [`vsphere-performance.metrics`](https://github.com/newrelic/nri-vsphere/blob/master/vsphere-performance.metrics) . Vous pouvez remplacer l&apos;emplacement du fichier de configuration des mesures de performances à l&apos;aide de la variable d&apos;environnement `PERF_METRIC_FILE` . Notez que l’intégration suit [les niveaux de collecte de données de VMware](https://docs.vmware.com/en/VMware-vSphere/7.0/com.vmware.vsphere.monitoring.doc/GUID-25800DE4-68E5-41CC-82D9-8811E27924BC.html) (1 à 4). + + Lorsque `ENABLE_VSPHERE_PERF_METRICS` est défini, toutes les métriques de niveau 1 sont collectées. Le niveau de collecte des données des mesures de performance collectées peut être modifié à l&apos;aide de `PERF_LEVEL`. Chaque métrique du fichier de configuration peut être placée en commentaire et de nouvelles peuvent être ajoutées si nécessaire. + + + La collecte de données de performances peut augmenter la charge dans vCenter et le temps nécessaire à la collecte des données. Nous vous recommandons d'inclure uniquement les métriques dont vous avez besoin dans le fichier de configuration. + + + Pour affiner la collecte de données, le nombre d'entités et de métriques récupérées par requête peut être modifié à l'aide `BATCH_SIZE_PERF_ENTITIES` et `BATCH_SIZE_PERF_METRICS`. + + + Pour plus d'informations sur les mesures de performances de vSphere, consultez la [documentation VMware](https://docs.vmware.com/en/VMware-vSphere/6.7/vsphere-esxi-vcenter-server-67-monitoring-performance-guide.pdf). + + + + + Dans cette configuration nous monitoring plusieurs serveurs vSphere à partir de la même intégration. Pour la première instance (`FIRST_VSPHERE_API_URL`), nous collectons l&apos;événement et le tag tandis que pour la deuxième instance (`SECOND_VSPHERE_API_URL`), nous les avons désactivés. + + ```yaml + integrations: + - name: nri-vsphere + env: + # vSphere API connection data (vCenter or ESXi servers) + URL: https:///sdk + USER: + PASS: + + # Collect events data + ENABLE_VSPHERE_EVENTS: true + + # Collect vSphere tags + ENABLE_VSPHERE_TAGS: true + + # Execution interval. Set a value higher than 20s, as real-time vSphere samples are run every 20s. + interval: 120s + - name: nri-vsphere + env: + # vSphere API connection data (vCenter or ESXi servers) + URL: https:///sdk + USER: + PASS: + + # Collect events data + ENABLE_VSPHERE_EVENTS: false + + # Collect vSphere tags + ENABLE_VSPHERE_TAGS: false + + # Execution interval. Set a value higher than 20s, as real-time vSphere samples are run every 20s. + interval: 300s + ``` + + + + + Si vous connectez l'intégration directement à l'hôte ESXi, les données vCenter ne sont pas disponibles (par exemple, événement, tag ou métadonnées data center ). + + +### Exemple de configuration [#example-config] + +Voici des exemples de configuration d'intégration vSphere, y compris des mesures de performances : + +* [`vsphere-config.yml.sample`](https://github.com/newrelic/nri-vsphere/blob/master/vsphere-config.yml.sample) (Linux) +* [`vsphere-win-config.yml.sample`](https://github.com/newrelic/nri-vsphere/blob/master/vsphere-win-config.yml.sample) (Windows) +* [`vsphere-performance.metrics`](https://github.com/newrelic/nri-vsphere/blob/master/vsphere-performance.metrics) (Mesures de performance) + +Pour plus d'informations, consultez notre documentation sur la [structure générale de l'intégration sur configuration hôte](/docs/integrations/integrations-sdk/file-specifications/host-integration-configuration-overview). + + + L'option de configuration [inventor\_source](/docs/integrations/integrations-sdk/file-specifications/host-integrations-newer-configuration-format#inventory_source) n&apos;est pas compatible avec cette intégration. + + +## Mettez à jour votre intégration [#update] + + + **On-host integrations do not automatically update.** + + +Pour de meilleurs résultats, mettez régulièrement [à jour le package d'intégration](/docs/integrations/host-integrations/installation/update-infrastructure-host-integration-package) et l&apos;[agent d'infrastructure](/docs/infrastructure/new-relic-infrastructure/installation/update-infrastructure-agent). + +## Afficher et utiliser les données [#data] + +Les données de ce service sont signalées à un [dashboard d'intégration](https://onenr.io/0qwyY4Bzpwn). Vous pouvez [interroger ces données](/docs/using-new-relic/data/understand-data/query-new-relic-data) à des fins de dépannage ou pour créer des graphiques et des dashboards. + +Les données vSphere sont attachées à ces [types d’événements](/docs/using-new-relic/welcome-new-relic/getting-started/glossary#event): + +* `VSphereHostSample` +* `VSphereClusterSample` +* `VSphereVmSample` +* `VSphereDatastoreSample` +* `VSphereDatacenterSample` +* `VSphereResourcePoolSample` +* `VSphereSnapshotVmSample` + +Les données de performances sont activées et configurées séparément (voir [Activer et configurer les métriques de performances](#perf-metrics)). + +Pour en savoir plus sur la façon d'afficher et d'utiliser vos données, consultez [Comprendre les données d'intégration](/docs/infrastructure/integrations/find-use-infrastructure-integration-data). + +## données métriques [#metrics] + +L'intégration vSphere fournit des données métriques attachées à l'[événement](/docs/telemetry-data-platform/ingest-manage-data/understand-data/new-relic-data-types#events-new-relic) New Relic suivant : + +* `VSphereHostSample` +* `VSphereVmSample` +* `VSphereDatastoreSample` +* `VSphereDatacenterSample` +* `VSphereResourcePoolSample` +* `VSphereClusterSample` +* `VSphereSnapshotVmSample` + +### Exemple d'hôte VSphere + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `cpu.totalMHz` + + Somme des MHz pour tous les cœurs individuels de l'hôte +
+ `cpu.coreMHz` + + Vitesse des cœurs du processeur +
+ `cpu.available` + + Quantité de MHz CPU libre dans l'hôte +
+ `cpu.overallUsage` + + Utilisation du processeur sur tous les cœurs de l'hôte en MHz +
+ `cpu.percent` + + Pourcentage d'utilisation du processeur dans l'hôte +
+ `cpu.cores` + + Nombre de cœurs de processeur physiques sur l'hôte. Les cœurs de processeur physiques sont les processeurs contenus dans un packagede processeur +
+ `cpu.threads` + + Nombre de threads CPU physiques sur l'hôte +
+ `disk.totalMiB` + + Capacité totale des disques montés sur l'hôte, en Mio +
+ `mem.free` + + Quantité de mémoire disponible dans l'hôte, en Mio +
+ `mem.usage` + + Quantité de mémoire utilisée dans l'hôte, en Mio +
+ `mem.size` + + Capacité totale de mémoire de l'hôte, en Mio +
+ `vmCount` + + Nombre de machines virtuelles dans l'hôte +
+ `hypervisorHostname` + + Nom de l'hôte +
+ `uuid` + + L'identification du BIOS matériel +
+ `datacenterName` + + Nom du data center lié à l'hébergeur +
+ `clusterName` + + Nom du cluster lié à l'hôte +
+ `resourcePoolNameList` + + Liste des noms des pools de ressources liés à l'hôte +
+ `datastoreNameList` + + Liste des noms des magasins de données liés à l'hôte +
+ `datacenterLocation` + + emplacement du centre de données +
+ `networkNameList` + + Liste des noms de réseaux liés à l'hôte +
+ `overallStatus` + + * `gray`: Le statut est inconnu + * `green`: L&apos;entité est OK + * `yellow`: L&apos;entité pourrait avoir un problème + * `red`: L&apos;entité a définitivement un problème +
+ `connectionState` + + L'état de la connexion de l'hôte : + + * `connected`:Connecté au serveur. Pour ESX Server, il s’agit du paramètre par défaut. + * `disconnected`: L&apos;utilisateur a explicitement désactivé l&apos;hôte. VirtualCenter ne s&apos;attend pas à recevoir de pulsations de l&apos;hôte. La prochaine fois qu&apos;un battement de cœur est reçu, l&apos;hôte est à nouveau déplacé vers l&apos;état connecté et un événement est enregistré. + * `notResponding`: VirtualCenter ne reçoit pas de pulsations du serveur. L&apos;état passe automatiquement à connecté une fois que les battements de cœur sont à nouveau reçus. Cet état est généralement utilisé pour déclencher une alarme sur l&apos;hôte. +
+ `inMaintenanceMode` + + L'indicateur pour indiquer si l'hôte est ou non en mode maintenance. Cet indicateur est défini lorsque l'hôte est entré en mode maintenance. Il n'est pas défini lors de la phase d'entrée en mode maintenance. +
+ `inQuarantineMode` + + L'indicateur pour indiquer si l'hôte est ou non en mode quarantaine. `InfraUpdateHa` recommandera de définir cet indicateur en fonction du `HealthUpdates` reçu par le `HealthUpdateProviders` configuré pour le cluster. + + Il sera recommandé à un hôte signalé comme dégradé d'entrer en mode quarantaine, tandis qu'à un hôte signalé comme sain il sera recommandé de quitter le mode quarantaine. L'exécution de ces actions recommandées définira cet indicateur. + + Les hôtes en mode quarantaine seront évités par vSphere DRS tant que la consolidation accrue dans le cluster n'affecte pas négativement les performances de la VM. +
+ `powerState` + + L'état d'alimentation de l'hôte : + + * `poweredOff`:L&apos;hôte a été spécifiquement mis hors tension par l&apos;utilisateur via VirtualCenter. Cet état n&apos;est pas un état certain, car après que VirtualCenter a émis la commande de mise hors tension de l&apos;hôte, l&apos;hôte peut planter ou tuer tous les processus mais ne pas parvenir à s&apos;éteindre. + * `poweredOn`: L&apos;hôte est sous tension. Un hôte qui entre en mode veille est également dans cet état. + * `standBy`:L&apos;hôte a été spécifiquement mis en mode veille, soit explicitement par l&apos;utilisateur, soit automatiquement par DPM. Cet état n&apos;est pas un état certain, car après que VirtualCenter a émis la commande pour mettre l&apos;hôte en état de veille, l&apos;hôte peut planter ou tuer tous les processus mais ne pas s&apos;éteindre. Un hôte qui quitte le mode veille est également dans cet état. + * `unknown`: Si l&apos;hôte est déconnecté ou `notResponding`, nous connaissons son état d&apos;alimentation, donc l&apos;hôte est marqué comme `unknown`. +
+ `standbyMode` + + Le mode veille de l'hôte. La propriété est uniquement renseignée par le serveur vCenter. Si la requête est effectuée directement depuis l'hôte ESX, la propriété est `unset`. + + * `entering`: L&apos;hôte entre en mode veille. + * `exiting`: L&apos;hôte quitte le mode veille. + * `in`: L&apos;hôte est en mode veille. + * `none`: L&apos;hôte n&apos;est pas en mode veille et n&apos;est pas en train d&apos;entrer ou de sortir du mode veille. +
+ `cryptoState` + + état chiffré de l'hôte. Les valeurs valides sont énumérées par le type CryptoState : + + * `incapable`:L&apos;hôte n&apos;est pas sûr pour recevoir du matériel sensible. + * `prepared`:L&apos;hôte est prêt à recevoir du matériel sensible mais ne dispose pas encore d&apos;une clé d&apos;hôte définie. + * `safe`:L&apos;hôte est sécurisé en termes de cryptographie et dispose d&apos;un ensemble de clés d&apos;hôte. +
+ `bootTime` + + L'heure à laquelle l'hôte a été démarré. +
+ +### Exemple de VSphereVm [#vspherevirtualmachine] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `mem.size` + + Taille de la mémoire de la machine virtuelle, en Mio +
+ `mem.usage` + + Statistiques d'utilisation de la mémoire invitée, en Mio. C'est ce qu'on appelle également la mémoire invité active. La valeur peut être comprise entre `0` et la taille de mémoire configurée de la machine virtuelle. Valable pendant que la machine virtuelle est en cours d&apos;exécution. +
+ `mem.free` + + Mémoire invité disponible, en MiB. La valeur peut être comprise entre `0` et la taille de mémoire configurée de la machine virtuelle. Valable pendant que la machine virtuelle est en cours d&apos;exécution. +
+ `mem.ballooned` + + La taille du pilote de ballon dans la machine virtuelle, en Mio. L'hôte gonflera le pilote de ballon pour récupérer la mémoire physique de la machine virtuelle. C’est un signe qu’il y a une pression de mémoire sur l’hôte. +
+ `mem.swapped` + + La partie de mémoire, en Mio, accordée à cette machine virtuelle à partir de l'espace de swap de l'hôte. C’est un signe qu’il y a une pression de mémoire sur l’hôte. +
+ `mem.swappedSsd` + + La quantité de mémoire échangée avec un périphérique de disque rapide tel qu'un SSD, en Mio +
+ `cpu.allocationLimit` + + Limites de ressources pour le processeur, en MHz. Si la valeur est `-1`, il n&apos;y a pas de limite d&apos;allocation fixe. +
+ `cpu.overallUsage` + + Statistiques de performances de base du processeur, en MHz. Valable pendant que la machine virtuelle est en cours d'exécution. +
+ `cpu.hostUsagePercent` + + Pourcentage du processeur hôte utilisé par la machine virtuelle. Dans le cas où une limite est configurée, le pourcentage est calculé en prenant la limite comme total. +
+ `cpu.cores` + + Nombre de processeurs dans la machine virtuelle +
+ `disk.totalMiB` + + Espace de stockage total, dédié à cette machine virtuelle dans tous les magasins de données, en Mio +
+ `ipAddress` + + Adresse IP principale de l'invité, si disponible +
+ `ipAddresses` + + Liste des IP associées à la VM (sauf `ipAddress`). Un caractère de barre verticale ou de tuyau (`|`) est utilisé comme séparateur. +
+ `connectionState` + + Indique si la machine virtuelle est disponible ou non pour la gestion : + + * `connected`: Le serveur a accès à la machine virtuelle. + * `disconnected`:Le serveur est actuellement déconnecté de la machine virtuelle, car son hôte est déconnecté. + * `inaccessible`:Un ou plusieurs fichiers de configuration de la machine virtuelle sont inaccessibles. + * `invalid`: Le format de configuration de la machine virtuelle n&apos;est pas valide. + * `orphaned`: La machine virtuelle n&apos;est plus enregistrée sur son hôte associé. +
+ `powerState` + + L’état d’alimentation actuel de la machine virtuelle : `poweredOff`, `poweredOn` ou `suspended`. +
+ `guestHeartbeatStatus` + + * `gray`:Le statut est inconnu. + * `green`: L&apos;entité est OK. + * `yellow`: L&apos;entité pourrait avoir un problème. + * `red`:L&apos;entité a définitivement un problème. +
+ `operatingSystem` + + système d'exploitation de la machine virtuelle +
+ `guestFullName` + + Nom complet du système d'exploitation invité, s'il est disponible à partir des outils invités +
+ `hypervisorHostname` + + Nom de l'hôte sur lequel la machine virtuelle est exécutée +
+ `instanceUuid` + + Identification unique de la machine virtuelle +
+ `datacenterName` + + Nom du data center +
+ `clusterName` + + Nom du cluster +
+ `resourcePoolNameList` + + Liste des noms des pools de ressources +
+ `datastoreNameList` + + Liste des noms des magasins de données +
+ `networkNameList` + + Liste des noms de réseaux +
+ `datacenterLocation` + + emplacement du centre de données +
+ `overallStatus` + + * `gray`:Le statut est inconnu. + * `green`: L&apos;entité est OK. + * `yellow`: L&apos;entité pourrait avoir un problème. + * `red`:L&apos;entité a définitivement un problème. +
+ `disk.suspendMemory` + + Taille du fichier instantané (octets). +
+ `disk.suspendMemoryUnique` + + Taille du fichier instantané, blocs uniques (octets). +
+ `disk.totalUncommittedMiB` + + Espace de stockage supplémentaire potentiellement utilisé par cette machine virtuelle sur tous les magasins de données. Il s’agit essentiellement d’un agrégat de propriétés non validées dans tous les magasins de données sur lesquels se trouve cette machine virtuelle (mébioctets). +
+ `disk.totalUnsharedMiB` + + Espace de stockage total occupé par la machine virtuelle sur tous les magasins de données, qui n'est partagé avec aucune autre machine virtuelle (mébioctets). +
+ `mem.hostUsage` + + Utilisation de la mémoire de l'hôte (Mébioctets). +
+ `resourcePoolName` + + Nom du pool de ressources. +
+ `vmConfigName` + + Nom de configuration de la machine virtuelle. +
+ `vmHostname` + + Vm nom d'hôte. +
+ +### VSphereDatastoreSample + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `capacity` + + La capacité maximale de ce datastore, en Gio, si accessible est `true` +
+ `freeSpace` + + L'espace disponible de ce datastore, en Gio, s'il est accessible est `true` +
+ `uncommitted` + + L'espace de stockage supplémentaire total, potentiellement utilisé par toutes les machines virtuelles de cette datastore, en Gio, s'il est accessible `true` +
+ `vmCount` + + Nombre de machines virtuelles attachées au datastore +
+ `datacenterLocation` + + emplacement du centre de données +
+ `datacenterName` + + nom du centre de données +
+ `hostCount` + + Nombre d'hôtes attachés au datastore +
+ `overallStatus` + + * `gray`:Le statut est inconnu. + * `green`: L&apos;entité est OK. + * `yellow`: L&apos;entité pourrait avoir un problème. + * `red`:L&apos;entité a définitivement un problème. +
+ `accessible` + + État de connectivité du datastore. Si cette valeur est définie sur `false`, la datastore n&apos;est pas accessible. +
+ `url` + + Localisateur unique pour le datastore, s'il est accessible `true` +
+ `fileSystemType` + + Type de volume du système de fichiers, tel que `VMFS` ou `NFS` +
+ `name` + + Nom du datastore +
+ `nas.remoteHost` + + Hôte qui exécute le serveur NFS/CIFS +
+ `nas.remotePath` + + Chemin distant du point de montage NFS/CIFS +
+ +### VSphereDatacenterSample + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `datastore.totalUsedGiB` + + Espace total utilisé dans les magasins de données, en Gio +
+ `datastore.totalFreeGiB` + + Espace libre total dans les magasins de données, en Gio +
+ `datastore.totalGiB` + + Taille totale des magasins de données, en Gio +
+ `cpu.cores` + + Nombre total de CPU par data center +
+ `cpu.overallUsagePercentage` + + Utilisation totale du processeur, en pourcentage +
+ `cpu.overallUsage` + + Utilisation totale du processeur, en MHz +
+ `cpu.totalMHz` + + Capacité totale du processeur, en MHz +
+ `mem.usage` + + Utilisation totale de la mémoire, en Mio +
+ `mem.size` + + Mémoire totale, en Mio +
+ `mem.usagePercentage` + + Utilisation totale de la mémoire en pourcentage +
+ `clusters` + + Nombre total cluster par data center +
+ `resourcePools` + + Nombre total de pools de ressources par data center +
+ `datastores` + + Nombre total de magasins de données par data center +
+ `networks` + + Nombre total d'adaptateurs réseau par data center +
+ `overallStatus` + + * `gray`: Le statut est inconnu + * `green`: L&apos;entité est OK + * `yellow`: L&apos;entité pourrait avoir un problème + * `red`: L&apos;entité a définitivement un problème +
+ `hostCount` + + Nombre total d'hôtes système par data center +
+ `vmCount` + + Nombre total de machines virtuelles par data center +
+ +### Exemple de pool de ressources VSphere + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `cpu.TotalMHz` + + Capacité totale du pool de ressources CPU, en MHz +
+ `cpu.overallUsage` + + Utilisation du processeur du pool de ressources, en MHz +
+ `mem.size` + + Mémoire totale réservée au pool de ressources, en Mio +
+ `mem.usage` + + Utilisation de la mémoire du pool de ressources, en Mio +
+ `mem.free` + + Pool de ressources mémoire disponible, en MiB +
+ `mem.ballooned` + + Taille du pilote de ballon dans le pool de ressources, en Mio +
+ `mem.swapped` + + Partie de mémoire, en Mio, accordée à ce pool de ressources à partir de l'espace de swap de l'hôte +
+ `vmCount` + + Nombre de machines virtuelles dans le pool de ressources +
+ `overallStatus` + + * `gray`:Le statut est inconnu. + * `green`: L&apos;entité est OK. + * `yellow`: L&apos;entité pourrait avoir un problème. + * `red`:L&apos;entité a définitivement un problème. +
+ `resourcePoolName` + + Nom du pool de ressources +
+ `datacenterLocation` + + emplacement du centre de données +
+ `datacenterName` + + Nom du data center +
+ `clusterName` + + Nom du cluster +
+ +### Exemple de cluster VSphere + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `cpu.totalEffectiveMHz` + + Ressources CPU effectives, en MHz, disponibles pour les machines virtuelles. Il s’agit du niveau de ressources effectives agrégées de tous les hôtes en cours d’exécution. Les hôtes en mode maintenance ou qui ne répondent pas ne sont pas comptabilisés. Les ressources utilisées par la console de service VMware ne sont pas incluses dans l’agrégat. Cette valeur représente la quantité de ressources disponibles pour le pool de ressources racine pour l'exécution des machines virtuelles. +
+ `cpu.totalMHz` + + Ressources CPU agrégées de tous les hôtes, en MHz. Il ne filtre pas le processeur utilisé par le système ou lié aux hôtes en cours de maintenance. +
+ `cpu.cores` + + Nombre de cœurs de processeur physiques. Les cœurs de processeur physiques sont les processeurs contenus dans un package CPU. +
+ `cpu.threads` + + Nombre agrégé de threads CPU. +
+ `mem.size` + + Ressources mémoire agrégées de tous les hôtes, en Mio. Il ne filtre pas la mémoire utilisée par le système ou liée aux hôtes en cours de maintenance. +
+ `mem.effectiveSize` + + Ressources de mémoire effectives, en Mio, disponibles pour exécuter des machines virtuelles. Il s’agit du niveau de ressources effectives agrégées de tous les hôtes en cours d’exécution. Les hôtes en mode maintenance ou qui ne répondent pas ne sont pas comptabilisés. Les ressources utilisées par la console de service VMware ne sont pas incluses dans l’agrégat. Cette valeur représente la quantité de ressources disponibles pour le pool de ressources racine pour l'exécution des machines virtuelles. +
+ `effectiveHosts` + + Nombre total d'hôtes effectifs. Ce nombre exclut les hôtes en maintenance. +
+ `hosts` + + Nombre total d'hôtes +
+ `overallStatus` + + * `gray`:Le statut est inconnu. + * `green`: L&apos;entité est OK. + * `yellow`: L&apos;entité pourrait avoir un problème. + * `red`:L&apos;entité a définitivement un problème. +
+ `datastoreList` + + Liste des datastore utilisées par le cluster. Un caractère de barre verticale ou de tuyau (`|`) est utilisé comme séparateur. +
+ `hostList` + + Liste des hôtes appartenant au cluster. Un caractère de barre verticale ou de tuyau (`|`) est utilisé comme séparateur. +
+ `networkList` + + Liste des réseaux attachés au cluster. Un caractère de barre verticale ou de tuyau (`|`) est utilisé comme séparateur. +
+ `drsConfig.vmotionRate` + + seuil pour les ClusterRecommendations générées. DRS génère uniquement les recommandations qui sont supérieures au vmotionRate spécifié. Les notes varient de 1 à 5. Ce paramètre s'applique aux clusters DRS manuels, partiellement automatisés et entièrement automatisés. +
+ `dasConfig.restartPriorityTimeout` + + Temps maximum pendant lequel les machines virtuelles de priorité inférieure doivent attendre que les machines virtuelles de priorité supérieure soient prêtes (secondes). +
+ `datacenterName` + + nom du centre de données. +
+ `datacenterLocation` + + emplacement du centre de données. +
+ `drsConfig.enabled` + + Drapeau indiquant si le service est activé ou non. +
+ `drsConfig.enableVmBehaviorOverrides` + + Indicateur qui indique si les remplacements de comportement DRS pour les machines virtuelles individuelles (ClusterDrsVmConfigInfo) sont activés. +
+ `drsConfig.defaultVmBehavior` + + Spécifie le comportement DRS par défaut à l’échelle du cluster pour les machines virtuelles. Vous pouvez remplacer le comportement par défaut d’une machine virtuelle en utilisant l’objet ClusterDrsVmConfigInfo. +
+ `dasConfig.enabled` + + Drapeau pour indiquer si la fonctionnalité vSphere HA est activée ou non. +
+ `dasConfig.admissionControlEnabled` + + Drapeau qui détermine si le contrôle d'admission strict est activé +
+ `dasConfig.isolationResponse` + + Indique si la machine virtuelle doit ou non être mise hors tension si un hôte détermine qu'elle est isolée du reste de la ressource calculer. +
+ `dasConfig.restartPriority` + + Priorité de redémarrage pour une machine virtuelle. +
+ `dasConfig.hostMonitoring` + + Détermine si HA redémarre les machines virtuelles après la défaillance d'un hôte. +
+ `dasConfig.vmMonitoring` + + Niveau de service de monitoring de l'état de la machine virtuelle HA. +
+ `dasConfig.vmComponentProtecting` + + Cette propriété indique si le service de protection des composants de machine virtuelle vSphere HA est activé. +
+ `dasConfig.hbDatastoreCandidatePolicy` + + La politique sur les magasins de données qui seront utilisés par vCenter Server pour choisir les magasins de données de pulsation : allFeasibleDs, allFeasibleDsWithUserPreference, userSelectedDs +
+ +### VSphereSnapshotVmSample [#vspheresnapshot] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom + + Description +
+ `snapshotTreeInfo` + + Informations sur l'arbre pour l'instantané. Es:cluster:VM:Snapshot1:Snapshot2 +
+ `name` + + Nom de l'instantané +
+ `creationTime` + + Heure de création de l'instantané +
+ `powerState` + + L'état d'alimentation de la machine virtuelle lorsque cet instantané a été pris +
+ `snapshotId` + + L'identifiant unique qui distingue cet instantané des autres instantanés de la machine virtuelle +
+ `quiesced` + + Drapeau pour indiquer si l'instantané a été créé ou non avec l'option « quiesce », garantissant un état cohérent du système de fichiers +
+ `backupManifest` + + Le chemin relatif du snapshotDirectory pointant vers le manifeste de sauvegarde. Disponible uniquement pour certains instantanés mis au repos +
+ `description` + + Description de l'instantané +
+ `replaySupported` + + Drapeau pour indiquer si cet instantané est associé à une session d'enregistrement sur la machine virtuelle qui peut être relue +
+ `totalMemoryInDisk` + + Taille totale de la mémoire sur le disque. +
+ `totalUniqueMemoryInDisk` + + Taille totale du fichier correspondant aux blocs de fichiers qui ont été alloués de manière unique pour stocker la mémoire. En d’autres termes, si le stockage sous-jacent prend en charge le partage de blocs de fichiers entre les fichiers de disque, la propriété correspond à la taille des blocs de fichiers qui ont été alloués uniquement dans le contexte de ce fichier. Il n'inclut pas les blocs partagés qui ont été alloués dans d'autres fichiers. Cette propriété sera désactivée si l'implémentation sous-jacente n'est pas en mesure de calculer ces informations. +
+ `totalDisk` + + Taille totale des fichiers instantanés sur le disque +
+ `totalUniqueDisk` + + Taille totale du fichier correspondant aux blocs de fichiers qui ont été alloués de manière unique pour stocker les données d'instantané sur le disque. En d’autres termes, si le stockage sous-jacent prend en charge le partage de blocs de fichiers entre les fichiers de disque, la propriété correspond à la taille des blocs de fichiers qui ont été alloués uniquement dans le contexte de ce fichier. Il n'inclut pas les blocs partagés qui ont été alloués dans d'autres fichiers. Cette propriété sera désactivée si l'implémentation sous-jacente n'est pas en mesure de calculer ces informations. +
+ `datastorePathDisk` + + Chemin d'accès au fichier disque dans le datastore +
+ `datastorePathMemory` + + chemin du fichier mémoire dans le datastore +
+ +## Dépannage [#troubleshooting] + + + + L’une des raisons possibles des lacunes de données pourrait être que l’intégration prend trop de temps pour collecter et traiter les données de vCenter. Dans le cas où l'intégration dépasse le [délai d'attente](/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format/#timeout), qui par défaut est `120s`, l&apos;agent infrastructure arrêtera l&apos;intégration et un message de log comme le suivant sera imprimé : + + ```shell + level=warn msg="HeartBeat timeout exceeded after 120000000000" integration_name=nri-vsphere + ``` + + Pour résoudre ce problème, vous pouvez étendre le paramètre [de délai d'attente](/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format/#timeout) dans le fichier de configuration. + + ```yaml + integrations: + - name: nri-vsphere + env: + # Integration configuration parameters. + + interval: 120s + + timeout: 300s + ``` + + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/windows-services-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/windows-services-integration.mdx new file mode 100644 index 00000000000..bd8456593a5 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/windows-services-integration.mdx @@ -0,0 +1,246 @@ +--- +title: Intégration des services Windows +metaDescription: An introduction to New Relic's open-source Windows services integration. +freshnessValidatedDate: never +translationType: machine +--- + +L'intégration des services Windows de New Relic collecte des données sur les services exécutés sur vos hôtes Microsoft Windows et les envoie à notre plateforme. Vous pouvez vérifier l'état et le mode de démarrage de chaque service, découvrir quels hôtes exécutent un service, configurer pour les services, et bien plus encore. + +Avec notre intégration de services Windows, vous pouvez : + +* Vérifiez tous vos services Windows, leur état (en cours d'exécution, arrêté, etc.), leur mode de démarrage (automatique, manuel, etc.) et d'autres [métadonnées](#metadata) de service. +* Découvrez quels hôtes exécutent des services Windows spécifiques. +* [Définissez des alertes](#set-alerts) en fonction des services Windows que vous monitoring à l’aide de New Relic. +* Installez le [démarrage rapide des servicesWindows ](https://newrelic.com/instant-observability/winservices)ou créez votre propre pour suivre vos services Windows . + +Notre intégration est fournie avec l'[agent d'infrastructure Windows](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows). Si vous monitoring des hôtes Windows sur New Relic, il vous suffit d&apos;activer l&apos;intégration pour obtenir les données des services Windows sur notre plateforme. + +New Relic - Windows services integration - Metric data + +
+ **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; Dashboards**:Vous pouvez utiliser les métriques d&apos;intégration des services Microsoft Windows pour créer des tables pour vos services. +
+ +## Compatibilité et exigences [#requirements] + +Notre intégration est compatible avec toutes [les versionsWindows prises en charge](/docs/infrastructure/install-infrastructure-agent/get-started/requirements-infrastructure-agent) par l&apos;agent New Relic Infrastructure. + +Vous devez avoir **version 1.12.1 or higher** pour notre [agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows) installé sur un hôte pris en charge. Les versions Windows x86 ne sont pas encore prises en charge. + + + + ## Installer l' agent d'infrastructure [#infra-install] + + Pour utiliser l’intégration des services Windows, vous devez d’abord [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. Toutes nos intégrations sur hôte nécessitent l&apos;agent infrastructure , qui permet d&apos;exposer et de rapporter les métriques à New Relic. + + + + ## Configurer l’intégration des services Windows [#configure] + + Pour activer et configurer l’intégration des services Windows : + + 1. Changez le répertoire vers le dossier d'intégration : + + ```shell + cd C:\Program Files\New Relic\newrelic-infra\integrations.d\ + ``` + + 2. Copiez l’exemple de fichier de configuration : + + ```shell + copy winservices-config.yml.sample winservices-config.yml + ``` + + 3. Modifiez le fichier `winservices-config.yml` . Par défaut, aucun service n&apos;est inclus. Pour inclure et filtrer les services, vous devez modifier `include_matching_entities:`. + + Voici un exemple de configuration d'intégration des services Windows avec à la fois un modèle d'expression régulière correspondant à tous les services nommés `win32.*` et une correspondance directe pour le service `newrelic-infra` : + + ```yml + integrations: + - name: nri-winservices + config: + exporter_bind_address: 127.0.0.1 + exporter_bind_port: 9182 + include_matching_entities: + windowsService.name: + - regex "win32.*" + - "newrelic-infra" + scrape_interval: 30s + labels: + env: production + role: load_balancer + timeout: 60s + ``` + + Pour plus d'informations, consultez notre documentation sur la [structure générale de l'intégration sur configuration hôte](/docs/integrations/integrations-sdk/file-specifications/host-integration-configuration-overview). + + + + ## Redémarrez l'agent New Relic Infrastructure + + Redémarrez votre agent d’infrastructure : + + ```shell + net stop newrelic-infra && net start newrelic-infra + ``` + + Dans quelques minutes, votre application enverra des métriques à [one.newrelic.com](https://one.newrelic.com). + + + + ## Trouvez vos données + + Vous pouvez choisir notre modèle dashboard prédéfini nommé `Windows services integration `pour monitorer vos services Windows . Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com), aller à la page **+ Integrations & Agents** . + 2. Cliquez sur **Dashboards**. + 3. Dans la barre de recherche, tapez `Windows services`. + 4. Le des Windows services dashboard devrait apparaître. Cliquez dessus pour l'installer. + + Votre des Windows services dashboard est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l&apos;utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + + +## Configurer une alerte [#set-alerts] + +Vous pouvez créer des services Windows à l’aide de conditions NRQL pour être informé des changements d’état des services que vous souhaitez monitorer. Voici deux exemples de conditions d’alerte qui utilisent les données des services Windows : + + + + ```sql + SELECT count(*) FROM Metric WHERE metricName = 'windows_service_state' AND state != 'running' FACET hostname, service_name + ``` + + + Le mode de démarrage est + auto + , mais l'état actuel n'est pas + running + + } + > + ```sql + FROM Metric SELECT count(*) WHERE start_mode = 'auto' AND state != 'running' FACET hostname, service_name + ``` + + + +## Comment ça marche [#process] + +Pour obtenir des données à partir d'hôtes Windows , notre intégration de services Windows utilise une version réduite de l'[exportateur Prometheus pour Windows](https://github.com/prometheus-community/windows_exporter), qui expose les métriques Prometheus sur le port spécifié dans la configuration de l&apos;agent. L&apos;intégration collecte ces métriques, les transforme en entité, les filtre, puis les envoie à New Relic. + +Windows services integration architecture + +
+ L'intégration des services Windows collecte les données [des fonctions de service](https://docs.microsoft.com/en-us/windows/win32/services/service-functions) à l&apos;aide de l&apos;exportateur Windows Prometheus. Il transforme et filtre ensuite les données avant de les envoyer à New Relic. +
+ +## données métriques [#metrics] + +L'intégration des services Windows fournit les données suivantes : + + + Cette intégration crée des métriques dimensionnelles, qui renvoient l'état numérique fourni par la [classe Win32\_Service](https://learn.microsoft.com/en-us/windows/win32/cimwin32prov/win32-service). L&apos;énumération de ces métriques en valeurs de chaîne lisibles est fournie sous l&apos;attribut `start_mode` et `state` . + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom métrique + + Attribut énuméré + + Description +
+ `windows_service_start_mode` + + `start_mode` + + Mode de démarrage du service. Les valeurs possibles sont : + + * `boot` + * `system` + * `auto` + * `manual` + * `disabled` +
+ `windows_service_state` + + `state` + + Etat du service. Les valeurs possibles sont : + + * `stopped` + * `start pending` + * `stop pending` + * `running` + * `continue pending` + * `pause pending` + * `paused` + * `unknown` +
+ +## Étiquettes [#labels] + +Vous pouvez également décorer vos métriques et les étiqueter avec des étiquettes. Les étiquettes vous permettent d'ajouter une paire d'attributs valeur clé à vos métriques et balises afin que vous puissiez interroger, filtrer ou regrouper vos métriques et utiliser des balises pour regrouper, rechercher et filtrer les données sur votre entité. + +Même si notre fichier de configuration d'exemple par défaut inclut des exemples d'étiquettes, ils sont facultatifs. Vous pouvez en supprimer, en modifier ou en ajouter de nouveaux. + +```yml +labels: + env: production + role: load_balancer +``` + +## Métadonnées [#metadata] + +L'intégration des services Windows envoie les métadonnées suivantes à New Relic : + +* `display_name`: Nom du service tel qu&apos;affiché dans le composant logiciel enfichable des services. + +* `process_id`: Identifiant du processus du service. + +* `run_as`: Nom du compte sous lequel un service s&apos;exécute. Selon le type de service, le format du nom de compte peut être `DomainName\Username` ou `Username@DomainName` (UPN). La valeur est extraite de l&apos;attribut `StartName` de la classe `Win32_Service` , qui peut être `NULL` (dans ce cas, l&apos;étiquette est signalée comme une chaîne vide). + + + Si l'attribut `StartName` est `NULL`, le service est connecté sous le compte `LocalSystem` . Pour le lecteur au niveau du noyau ou du système, il s&apos;exécute avec un nom d&apos;objet par défaut que le système I/O crée en fonction du nom du service, par exemple, `DWDOM\Admin`. + + +* `service_name`: Identifiant unique du service. + + + Le système convertit `service_name` en minuscule selon de bonnes pratiques. Il remplace tous les espaces et les points par des traits de soulignement. Ce n’est pas le même que le nom du service sur l’interface Windows. + + +## code source [#open-source] + +L'intégration des services Windows est un logiciel open source. Cela signifie que vous pouvez [parcourir son code source](https://github.com/newrelic/nri-winservices/) et [envoyer des améliorations](https://github.com/newrelic/nri-winservices/blob/master/CONTRIBUTING.md), ou créer votre propre fork et le construire. Pour plus d&apos;informations, consultez le [fichier README](https://github.com/newrelic/nri-winservices/blob/master/README.md). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/zookeeper-monitoring-integration.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/zookeeper-monitoring-integration.mdx new file mode 100644 index 00000000000..58e4ee91ce2 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/host-integrations-list/zookeeper-monitoring-integration.mdx @@ -0,0 +1,93 @@ +--- +title: Zookeeper monitoring Intégration +tags: + - Integrations + - On-host integrations + - On-host integrations list +metaDescription: An introduction to New Relic's open-source ZooKeeper integration. +freshnessValidatedDate: never +translationType: machine +--- + +Notre intégration Apache ZooKeeper monitore les performances de votre cluster ZooKeeper, vous aidant à gérer et synchroniser vos systèmes distribués. Notre intégration Apache ZooKeeper vous offre un dashboard prédéfini qui inclut des métriques au niveau clusteret au niveau du nœud. + +A screenshot of a dashboard with Apache ZooKeeper metrics. + +
+ Après avoir configuré l'intégration avec New Relic, visualisez vos données dans un dashboard comme celui-ci, dès la sortie de la boîte. +
+ +Suivez les étapes suivantes pour installer l’intégration : + + + + ## Installer l' agent d'infrastructure [#infra] + + Pour utiliser l’intégration Zookeeper, vous devez d’abord [installer l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic/) sur le même hôte. L&apos;agent infrastructure monitore l&apos;hôte lui-même, tandis que l&apos;intégration que vous installerez à l&apos;étape suivante étend votre monitoring avec des données spécifiques à Zookeeper. + + + + ## Utilisez NRI-Flex pour capturer des métriques + + Flex vous permet de capturer les métriques Apache Zookeeper. Il est fourni avec l’agent New Relic Infrastructure que vous avez installé à l’étape précédente. + + 1. Créez un fichier nommé `zookeeper-config.yml` dans le chemin `/newrelic-infra/integrations.d` . + + 2. Mettez à jour le `zookeeper-config.yml` avec l’exemple de configuration suivant : + + ```yml + integrations: + - name: nri-flex + # interval: 30s + config: + name: zookeeperFlex + apis: + - name: zookeeper + event_type: zkSample + commands: + - run: echo mntr | nc localhost 2181 ## change to your zookeeper server + split_by: "\t" ## split by tab + snake_to_camel: true + custom_attributes: + myCustomAttr: theValue ## inject your own additional custom attributes + ``` + + + + ## Redémarrez l'agent New Relic Infrastructure + + Avant de pouvoir commencer à lire vos données, utilisez les instructions de notre [documentation sur l'agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/) pour redémarrer votre agent d&apos;infrastructure : + + ```bash + sudo systemctl restart newrelic-infra.service + ``` + + + + ## Trouvez vos données + + Vous pouvez choisir notre modèle dashboard prédéfini nommé `Apache ZooKeeper` pour monitorer les métriques de votre application Zookeeper . Suivez ces étapes pour utiliser notre modèle dashboard prédéfini : + + 1. De [one.newrelic.com](https://one.newrelic.com), aller à la page **+ Integrations & Agents** . + 2. Cliquez sur **Dashboards**. + 3. Dans la barre de recherche, tapez `apache zookeeper`. + 4. Le dashboard ZooKeeper devrait apparaître. Cliquez dessus pour l'installer. + + Votre Apache ZooKeeper dashboard est considéré comme un dashboard personnalisé et peut être trouvé dans l'UI **Dashboards**. Pour obtenir des documents sur l&apos;utilisation et la modification du dashboard, consultez [notre documentation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). + + Lorsque vous utilisez l'intégration `nri-flex` vos métriques seront exportées dans le `EVENT_TYPE` donné. Voici une requête NRQL pour vérifier le nombre de znodes dans l&apos;espace de nommage ZooKeeper avec une intégration `nri-flex` : + + ```sql + FROM + SELECT latest(zkZnodeCount) + ``` + + + +## Quelle est la prochaine étape ? + +Pour en savoir plus sur la création de requêtes NRQL et la génération de dashboards, consultez ces documents : + +* [Introduction au générateur de requêtes](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) pour créer des requêtes basiques et avancées. +* [Introduction au dashboard](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) pour personnaliser votre dashboard et effectuer différentes actions. +* [Gérez votre dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) pour ajuster votre mode d&apos;affichage du dashboard ou pour ajouter plus de contenu à votre dashboard. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/get-started/compatibility-requirements-infrastructure-integrations-sdk.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/get-started/compatibility-requirements-infrastructure-integrations-sdk.mdx new file mode 100644 index 00000000000..3024af48754 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/get-started/compatibility-requirements-infrastructure-integrations-sdk.mdx @@ -0,0 +1,87 @@ +--- +title: Compatibilité et exigences pour le SDK d'intégration d'infrastructure +tags: + - Create integrations + - Infrastructure Integrations SDK + - Get started +metaDescription: Compatibility and requirements for the New Relic Infrastructure Integration SDK. +freshnessValidatedDate: never +translationType: machine +--- + +## Version d'infrastructure [#agent-version] + +Le SDK d'intégration d'infrastructure v4 nécessite la version 1.13.0 ou supérieure de l'agent d'infrastructure. + +Le SDK v3 nécessite la version d'agent 1.0.888 ou supérieure. + +Pour obtenir des informations sur la version de l'agent infrastructure et les options d'installation et de mise à jour, consultez les [notes de sortie de l'infrastructure](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes). + +Pour obtenir des notes sur les versions et les modifications du SDK, consultez le [log des modifications](#change-log). + +## système d'exploitation [#os] + +l'intégration construite avec le SDK peut être compilée pour un système d'exploitation Linux ou Windows . + +## Spécifications des données et des fichiers [#data-specs] + +L'intégration d'infrastructure sur hôte peut être créée avec n'importe quel langage de programmation, à condition qu'il respecte les [spécifications des données et des fichiers](/docs/infrastructure/integrations-sdk/get-started/create-activate-infrastructure-integration). + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Version de l'agent d'infrastructure + + Détails +
+ 1.13.0 ou supérieur + + Modifications apportées au protocole d'intégration (v4), y compris la prise en charge de l'enregistrement dynamique de l'entité dans New Relic et de l'envoi de métriques dimensionnelles.\ + Nouveaux types métriques. Voir [les notes de sortie du SDK v4](https://github.com/newrelic/infra-integrations-sdk/releases/tag/v4.0.0). +
+ 1.0.888 ou supérieur + + Modifications du format JSON, y compris la prise en charge de plusieurs entités. Le nouveau format JSON est appelé protocole `2` (décrit dans la documentation [de sortie JSON](/docs/integrations/integrations-sdk/file-specifications/integration-executable-file-specifications) et également utilisé dans le [fichier de définition](/docs/integrations/integrations-sdk/file-specifications/integration-definition-file-specifications#def-header)). + + Utilise un ensemble plus récent d'outils de création de langage Go (référencé sous le nom de [GoSDK v3](https://github.com/newrelic/infra-integrations-sdk/blob/master/docs/v2tov3.md)). +
+ 1.0.726 (pour Linux) ; 1.0.775 (pour Windows) + + Utilise le protocole JSON `1` (décrit dans la documentation [de sortie JSON](/docs/integrations/integrations-sdk/file-specifications/integration-executable-file-specifications) et également utilisé dans le [fichier de définition](/docs/integrations/integrations-sdk/file-specifications/integration-definition-file-specifications#def-header)). + + Utilise un ancien ensemble d'outils de création de langage Go (référencé sous le nom de [GoSDK v2](https://github.com/newrelic/infra-integrations-sdk/blob/master/docs/v2tov3.md)). +
+ + Si vous avez créé une intégration à l'aide des anciens outils de création de langage Go et que vous souhaitez effectuer une mise à jour, consultez [Mise à niveau de GoSDK v2 vers v3](https://github.com/newrelic/infra-integrations-sdk/blob/master/docs/v2tov3.md) et [Mise à niveau de v3 vers v4](http://github.com/newrelic/infra-integrations-sdk/blob/master/docs/v3tov4.md). + + Pour mettre à jour l'agent d'infrastructure, voir [Mettre à jour l'agent](/docs/infrastructure/new-relic-infrastructure/installation/update-infrastructure-agent). +
+
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/get-started/go-language-integration-tutorial-build-tools.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/get-started/go-language-integration-tutorial-build-tools.mdx new file mode 100644 index 00000000000..d2b7fa4d5ae --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/get-started/go-language-integration-tutorial-build-tools.mdx @@ -0,0 +1,36 @@ +--- +title: Tutoriel sur l'intégration du langage Go et outils de création +tags: + - Create integrations + - Infrastructure Integrations SDK + - Get started +freshnessValidatedDate: never +translationType: machine +--- + +Le [SDK d'intégration d'infrastructure](/docs/infrastructure/integrations-sdk/get-started/intro-infrastructure-integrations-sdk) vous permet de créer une intégration sur hôte personnalisée. Ce document explique les outils de construction et les ressources disponibles pour créer une intégration sur hôte avec nos outils de langage Go. + +## Tutoriel d'intégration [#tutorial] + + + Le tutoriel suivant est basé sur l'intégration utilisant le protocole d'intégration SDK v3.\ + Retrouvez plus d&apos;informations sur le protocole d&apos;intégration v4 dans le [référentiel Github](https://github.com/newrelic/infra-integrations-sdk). + + +Le [didacticiel de création d'intégration de langage Go sur GitHub](https://github.com/newrelic/infra-integrations-sdk/blob/master/docs/tutorial.md) fournit des procédures étape par étape pour créer une intégration de langage Go qui rapporte les données Redis. + +Le didacticiel montre comment créer une intégration à l’aide de la ligne de commande Linux, mais vous pouvez utiliser les mêmes techniques pour une intégration Windows avec une installation Go standard et PowerShell. La commande `make` ne fonctionnera pas avec PowerShell, mais vous pouvez utiliser les commandes Go qu’elle contient comme guide pour créer votre intégration. + + + Vous pouvez créer une intégration sur hôte dans n'importe quel langage, mais Go est le langage que New Relic utilise pour ses propres outils d'intégration et de construction. Pour créer une intégration dans une autre langue, respectez les [structures de fichiers d'intégration et les exigences de sortie JSON](/docs/integrations/integrations-sdk/getting-started/integration-file-structure-activation). + + +## Package de construction d'intégration de langage Go [#package] + +Le didacticiel s'appuie sur un [package de bibliothèque d'intégration de langage Go New Relic](https://godoc.org/github.com/newrelic/infra-integrations-sdk), qui fournit un ensemble de fonctions et de structures de données Go utiles. Le package vous offre des outils qui : + +* Générer une structure d'intégration « échafaudage » avec tous les champs requis. +* Lire les valeurs des arguments de ligne de commande ou des variables d’environnement. +* Générer et imprimer des données JSON dans `stdout`. + +Pour plus d'informations sur les formats de fichiers et les spécifications de sortie JSON, consultez [Exigences relatives aux fichiers](/docs/integrations/integrations-sdk/getting-started/integration-file-structure-activation). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/get-started/introduction-infrastructure-integrations-sdk.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/get-started/introduction-infrastructure-integrations-sdk.mdx new file mode 100644 index 00000000000..086665af7de --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/get-started/introduction-infrastructure-integrations-sdk.mdx @@ -0,0 +1,25 @@ +--- +title: Introduction au SDK d'intégration d'infrastructure +tags: + - Create integrations + - Infrastructure Integrations SDK + - Get started +freshnessValidatedDate: never +translationType: machine +--- + +New Relic vous permet de créer votre propre intégration de plusieurs manières : + +* Solutions de télémétrie générale (métriques, trace) : Utilisez nos [SDK de télémétrie](/docs/data-ingest-apis/get-data-new-relic/new-relic-sdks/telemetry-sdks-send-custom-telemetry-data-new-relic). +* Créez une [application New Relic](/docs/new-relic-one/use-new-relic-one/build-new-relic-one/new-relic-one-build-your-own-custom-new-relic-one-application) personnalisée qui utilise votre propre fonctionnalité UI JavaScript. +* Si vous disposez de New Relic Infrastructure, vous pouvez utiliser notre [outil d'intégrationFlex ](/docs/integrations/host-integrations/host-integrations-list/flex-integration-tool-build-your-own-integration)léger (recommandé) ou utiliser notre SDK d&apos;intégration pour créer une [intégration d'infrastructure complète sur hôte](/docs/integrations/host-integrations/getting-started/introduction-host-integrations). + + + New Relic est en train de s'appuyer sur des standards open source comme Prometheus pour de futures intégrations sur hôte. Bien que ce SDK soit la base de cette transition, certains des tutoriels et outils autour de ce SDK peuvent ne pas être à jour avec les derniers développements. + + +## Qu'est-ce que le SDK d'intégration d'infrastructure ? [#what-is-it] + +Notre SDK d'intégration d'infrastructure est ce que nous avons utilisé pour construire notre [agent infrastructure d'intégration sur hôte](/docs/infrastructure/host-integrations/installation/install-infrastructure-host-integrations), qui fonctionne en tandem avec notre agent infrastructure pour signaler les données de vos hôtes ou services. + +Vous pouvez étudier la documentation de cette section pour vous aider à comprendre la structure des fichiers et les options configuration pour ces intégrations. Cela peut être utile pour le dépannage et la personnalisation de votre intégration. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integration-configuration-overview.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integration-configuration-overview.mdx new file mode 100644 index 00000000000..792f133c961 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integration-configuration-overview.mdx @@ -0,0 +1,39 @@ +--- +title: Présentation configuration de l'intégration sur hôte +tags: + - Create integrations + - Infrastructure Integrations SDK + - Specifications +metaDescription: Configuration overview of New Relic's on-host integrations. +freshnessValidatedDate: never +translationType: machine +--- + +Notre [intégration sur hôte](/docs/infrastructure/host-integrations/installation/install-infrastructure-host-integrations) envoie des données à l&apos;agent infrastructure , qui à son tour envoie ces données à New Relic. La manière dont l&apos;intégration interagit avec l&apos;agent est contrôlée par la configuration de chaque intégration. + +Pour plus d'informations sur l'intégration à laquelle cela s'applique, voir [intégration sur hôte installation](/docs/infrastructure/host-integrations/installation/install-infrastructure-host-integrations). + +## Présentation du fonctionnement de la configuration [#overview] + +Certaines de nos intégrations sur hôte sont des programmes externes exécutés par l'[agent infrastructure ](/docs/infrastructure/install-configure-infrastructure/configuration/configure-infrastructure-agent). Chaque intégration monitore un [service spécifique](/docs/integrations/host-integrations/host-integrations-list). Une intégration contient au minimum ces fichiers : + +* Un [exécutable](/docs/infrastructure/infrastructure-integrations/custom-integrations/create-integration-executable-file) qui exporte différents [types de données](/docs/integrations/new-relic-integrations/get-started/introduction-infrastructure-integrations#data-types) dans un format JSON attendu par l&apos;agent +* Un ou plusieurs fichiers de configuration au format YAML (par exemple, la [configuration d'intégration Apache)](/docs/integrations/host-integrations/host-integrations-list/kafka-monitoring-integration#config). (Nous vous recommandons [de vérifier](http://www.yamllint.com/) les fichiers de configuration YAML avant utilisation pour éviter les problèmes de formatage.) + +Notez qu'en plus de la spécifique de l'intégration sur configuration l'hôte, vous pouvez également éditer la de [infrastructure l'agent configuration](/docs/infrastructure/install-infrastructure-agent/configuration/configure-infrastructure-agent). + +## Emplacement du fichier de configuration [#file-location] + +Avec les installations d’intégration sur hôte standard, la configuration se trouve dans le répertoire de l’agent d’infrastructure. L'agent détermine cet emplacement de configuration par un [paramètre dans son propre fichier de configuration](/docs/infrastructure/install-configure-manage-infrastructure/configuration/infrastructure-configuration-settings#plugin-dir). + +Pour certaines implémentations, la configuration de l'intégration sera située ailleurs. Par exemple: + +* Services exécutés sur [Kubernetes](/docs/integrations/kubernetes-integration/link-apps-services/monitor-services-running-kubernetes): la configuration se trouve dans le fichier de configuration de l’intégration Kubernetes. +* Services exécutés sur [Amazon ECS](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs): la configuration est placée dans la console AWS. + +## Formats de configuration [#config-formats] + +intégration sur hôte utilise deux formats configuration : + +* **Standard**:À partir de décembre 2019, [la version 1.8.0 de l'agent infrastructure ](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes)a commencé à prendre en charge un nouveau format utilisé par certaines intégrations. Ce format utilise un seul fichier de configuration et apporte d&apos;autres améliorations. Pour plus de détails, voir [Configuration standard](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format). +* **Legacy**:C&apos;est le format utilisé par la plupart des intégrations sur hôte. Cette configuration utilise deux fichiers : un fichier de définition et un fichier de configuration. Pour plus de détails, voir [Configuration héritée](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-legacy-configuration-format/). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integration-executable-file-json-specifications.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integration-executable-file-json-specifications.mdx new file mode 100644 index 00000000000..5417413a0d3 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integration-executable-file-json-specifications.mdx @@ -0,0 +1,668 @@ +--- +title: "fichier exécutable d'intégration sur hôte\_: spécifications JSON" +tags: + - Create integrations + - Infrastructure Integrations SDK + - Specifications +metaDescription: JSON specifications for New Relic's on-host integrations SDK. +freshnessValidatedDate: never +translationType: machine +--- + +Une [intégration d'agent infrastructure New Relic sur hôte](/docs/infrastructure/host-integrations/installation/install-infrastructure-host-integrations) sera composée d&apos;au moins deux fichiers : un fichier exécutable et au moins un fichier configuration . Le fichier exécutable génère des données JSON qui sont consommées par l&apos;agent d&apos;infrastructure et envoyées à New Relic. Nous appelons l&apos;objet JSON le protocole d&apos;intégration SDK. + +## Exigences relatives aux fichiers exécutables [#what-is] + +L'exécutable peut être n'importe quel fichier qui s'exécute à partir d'une interface de ligne de commande ; par exemple : + +* Un script shell +* Un script +* Un binaire compilé + +La seule exigence de votre fichier exécutable est qu'il exporte des données JSON, dans un format sur une seule ligne, qui répond aux [spécifications](#general-specs) de ce document. + +Recommandation : Utilisez Go pour créer l'intégration ; c'est le langage que nous utilisons pour créer l'intégration sur hôte et les [outils de construction d'intégration](/docs/integrations/integrations-sdk/getting-started/integrations-tutorials-build-resources). Cependant, vous pouvez créer une intégration dans n&apos;importe quelle langue. + +## Placement des fichiers + +Le fichier exécutable va dans ce répertoire : + +* + **Linux:** + + + ``` + /var/db/newrelic-infra/custom-integrations + ``` + +* + **Windows:** + + + ``` + C:\Program Files\New Relic\newrelic-infra\newrelic-integrations + ``` + +## Protocole d'intégration v4 : exemple de sortie JSON [#example-json] + +La section suivante explique le nouveau schéma JSON (protocole d'intégration v4). Le SDK v4 ne prend en charge que cette nouvelle version du protocole. Voici les changements les plus importants : + +* Un nouvel objet `integration` au niveau supérieur. +* Les objets `entity` et `metrics` ont été modifiés. + +Consultez le [guide de migration v3 vers v4](https://github.com/newrelic/infra-integrations-sdk/blob/master/docs/v3tov4.md) pour plus d&apos;informations. + +``` +{ + "protocol_version":"4", # protocol version number + "integration":{ # this data will be added to all metrics and events as attributes, + # and also sent as inventory + "name":"integration name", + "version":"integration version" + }, + "data":[ # List of objects containing entities, metrics, events and inventory + { + "entity":{ # this object is optional. If it's not provided, then the Entity will get + # the same entity ID as the agent that executes the integration. + "name":"redis:192.168.100.200:1234", # unique entity name per customer account + "type":"RedisInstance", # entity's category + "displayName":"my redis instance", # human readable name + "metadata":{} # can hold general metadata or tags. Both are key-value pairs that will + # be also added as attributes to all metrics and events + }, + "metrics":[ # list of metrics using the dimensional metric format + { + "name":"redis.metric1", + "type":"count", # gauge, count, summary, cumulative-count, rate or cumulative-rate + "value":93, + "attributes":{} # set of key-value pairs that define the dimensions of the metric + } + ], + "inventory":{...}, # Inventory remains the same + "events":[...] # Events remain the same + } + ] +} +``` + +## Protocole d'intégration v3 : exemple de sortie JSON [#example-json] + +Le JSON comprend : + +* Un en-tête, avec des données d'intégration de base (nom, version) +* Une liste de données, qui comprend une ou plusieurs données de rapport [d'entité](/docs/integrations/integrations-sdk/getting-started/introduction-infrastructure-integrations-sdk#data-types) (données métriques, d&apos;inventaire et/ou d&apos;événement) + +Ce diagramme montre cette structure : + +New Relic Integrations SDK data structure diagram + +Voici un exemple de sortie JSON (formaté avec des sauts de ligne pour plus de lisibilité). Les définitions et spécifications suivent cet exemple : + +``` +{ + "name": "my.company.integration", + "protocol_version": "3", + "integration_version": "x.y.z", + "data": [ + { + "entity": { + "name": "my_garage", + "type": "building", + "id_attributes": [ + { + "key": "environment", + "value": "production" + }, + { + "key": "node", + "value": "master" + } + ] + }, + "metrics": [ + { + "temperature": 25.3, + "humidity": 0.45, + "displayName": "my_garage", + "entityName": "building:my_garage", + "event_type": "BuildingStatus" + } + ], + "inventory": { + "out_door": { + "status": "open" + } + }, + "events": [] + }, + { + "entity": { + "name": "my_family_car", + "type": "car", + "id_attributes": [ + { + "key": "environment", + "value": "production" + }, + { + "key": "node", + "value": "master" + } + ] + }, + "metrics": [ + { + "speed": 95, + "fuel": 768, + "displayName": "my_family_car", + "entityName": "car:my_family_car", + "event_type": "VehicleStatus" + } + ], + "inventory": { + "motor": { + "brand": "renault", + "cc": 1800 + } + }, + "events": [ + { + "category": "gear", + "summary": "gear has been changed" + } + ], + "add_hostname": true + } + ] +} +``` + +## JSON : Spécifications générales [#general-specs] + +Voici les spécifications générales pour la sortie JSON : + + + + Les données sont transmises à `stdout` (sortie standard) au format JSON. L&apos;agent traitera les descripteurs de fichiers `stdout` et `stderr` comme des tampons de ligne. + + Utilisez du JSON standard, et non du JSON « joliment imprimé », pour la sortie. Recommandation : inclure un commutateur de ligne de commande facultatif (par exemple, `--pretty`) pour rendre JSON « joliment imprimé » à des fins de débogage. + + + + Les informations d'erreur et de débogage doivent être émises à `stderr` (erreur standard). Suivez [les recommandations et bonnes pratiques de New Relic pour le logging d'intégration](/docs/infrastructure/integrations-sdk/file-specifications/integration-logging-recommendations). + + + + Le code de sortie doit sortir avec un code d'état `0` et suivre les conventions spécifiques à la plateforme. Par exemple: + + * **Linux:** `0 == EX_OK` + + * **Windows:** `0 == ERROR_SUCCESS` + + Si l'exécutable se termine avec un statut différent de zéro, l'agent supprimera toutes les données de `stdout` et écrira un message dans son fichier log avec le nom de l&apos;intégration, le code de sortie et toutes les informations de diagnostic qu&apos;il peut recueillir. + + + +## JSON : En-tête [#exec-header] + +Voici un exemple de la première partie de la [sortie JSON](#example-json) d&apos;une intégration sur hôte : + +``` +"name":"com.myorg.nginx", +"protocol_version":"3", +"integration_version":"1.0.0", +"data": [ {entities}...] +``` + +Une charge utile minimale serait un objet JSON avec uniquement les champs d'en-tête. Recommandation : S'il n'y a pas de données à collecter, utilisez le code de retour du programme et le message de log écrit dans `stderr`. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Champs d'en-tête JSON + + Description +
+ `name` + + Requis. Doit être identique au champ `name` dans le fichier de configuration. + + Recommandation : utilisez des noms de domaine inversés pour générer des noms d’intégration uniques. +
+ `protocol_version` + + Requis. Le numéro de version du protocole d’échange entre l’intégration et l’agent utilisé par l’exécutable d’intégration. + + * La version actuelle est la 3. Ce protocole nécessite l'agent d'infrastructure 1.2.25 ou supérieur. + + * Le protocole 2 nécessite l'agent d'infrastructure 1.0.859 ou supérieur. + + * Le protocole 1 est compatible avec tous les agents. + + Pour plus d'informations, voir [Modifications du SDK](/docs/integrations/integrations-sdk/getting-started/compatibility-requirements-infrastructure-integrations-sdk#change-log). +
+ `integration_version` + + Facultatif. La version d'intégration. Utilisé pour suivre la version d'intégration exécutée sur chaque hôte. + + Une intégration peut avoir plusieurs exécutables. Il ne s’agit donc pas simplement de la version de l’exécutable. +
+ `data` + + Obligatoire pour la création de rapports de données. Une liste contenant les [données rapportées par une ou plusieurs entités](#exec-data). +
+ +## JSON : entité [#entity-json] + +À l'intérieur de la [liste`data` ](#data)de la [sortie JSON](#example-json) se trouvent une ou plusieurs entités. Les champs de saisie de l&apos;entité incluent : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Champs JSON d'entité + + Description +
+ `entity` + + Requis. Données ou propriétés d'entité. +
+ `metrics` + + Facultatif. liste métrique liée à l'entité. +
+ `inventory` + + Facultatif. Articles d'inventaire liés à l'entité. +
+ `events` + + Facultatif. liste des événements liés à l'entité. +
+ `add_hostname` + + Facultatif. Booléen. Si `true`, les métriques de l&apos;entité seront décorées avec `hostname`. +
+ +À l'intérieur de la [liste`data` ](#data)de la [sortie JSON](#example-json) se trouvent une ou plusieurs entités et leurs données. L&apos;entrée `entity` comporte deux champs : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Champs JSON de données d'entité + + Description +
+ `name` + + Requis. L'identifiant/nom de l'entité. + + Recommandation : utilisez des noms de domaine inversés pour générer des noms d’intégration uniques. +
+ `type` + + Requis. Le type d'entité. Il sera utilisé par l'agent infrastructure comme espace de nommage pour composer un **unique identifier** en conjonction avec le `name`. +
+ `id_attributes` + + Facultatif. Une liste d'attributs de valeur clé qui confèrent un caractère unique à une entité. Ils sont attachés au nom sous la forme `key=value` pour faciliter la lisibilité, fournir des informations supplémentaires et améliorer l&apos;unicité du nom de l&apos;entité. + + Les attributs identifiant sont utiles lorsque le nom de l'entité n'est pas suffisant pour fonctionner comme un identifiant unique, ou lorsqu'il ne fournit pas suffisamment d'informations significatives. Par exemple: + + ``` + [ + { + "key": "service", + "value": "mysql" + }, + { + "key": "role", + "value": "master" + }, ... + ] + ``` +
+ +## Remplacement d'adresse de bouclage sur les noms d'entité [#loopback] + +À partir de la infrastructure [version 1.2.25 ou supérieure](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes) de l&apos;agent , le protocole v3 améliore l&apos;unicité des entités distantes en ajoutant le remplacement d&apos;adresse locale sur les noms d&apos;entité au niveau de l&apos;agent. + +Lorsque plusieurs entités distantes ont leur nom basé sur un point de terminaison (soit `ip` soit `hostname`), et que ce nom contient [des adresses de bouclage](https://en.wikipedia.org/wiki/Localhost#Name_resolution), deux problèmes se posent : + +* Cette valeur localhost ne fournit pas d'informations précieuses sans plus de contexte. +* Le `name` pourrait entrer en conflit avec un autre service nommé avec une adresse locale. + +Cela se produit lorsque : + +* les noms de points de terminaison sont comme `localhost:port`. +* Les ports ont tendance à être les mêmes pour un service donné ; par exemple, 3306 pour MySQL. + +Lors de l'entrée de données du protocole v3, l'agent d'infrastructure remplace les adresses de bouclage sur le nom de l'entité (et la clé) par le premier élément disponible de la liste suivante : + +1. ID du fournisseur de cloud d'instance, récupéré par l'agent le cas échéant +2. Nom d'affichage, défini via l'[option de configuration de l'agent display\_name](/docs/infrastructure/new-relic-infrastructure/configuration/configure-infrastructure-agent#general) +3. nom d'hôte, tel que récupéré par l'agent + +Par exemple, si une intégration utilisant le protocole v3 renvoie une entité avec le `localhost:3306` nom, et que l&apos;agent s&apos;exécute sur du bare metal (n&apos;a pas d&apos;ID d&apos;instance de fournisseur de cloud), que le display\_name n&apos;a pas été défini et que le nom d&apos;hôte `prod-mysql-01` est, alors l&apos;agent remplacera le `localhost` et produira le nom `prod-mysql-01:3306` d&apos;entité. + +L'agent d'infrastructure permet le remplacement automatique de l'adresse de bouclage pour le protocole d'intégration v3. Vous pouvez également l'activer pour la version 2 via l'[indicateur de configuration de l'agent](/docs/infrastructure/new-relic-infrastructure/configuration/configure-infrastructure-agent#general) `replace_v2_loopback_entity_names`. Dans ce cas, toutes les intégrations exécutées par l&apos;agent utilisant v2 verront leurs noms remplacés chaque fois qu&apos;elles porteront une adresse locale. + +## JSON : données métriques, d'inventaire et d'événements [#metric-data] + +Les valeurs de données suivent l’en-tête du fichier exécutable. Vous pouvez enregistrer trois [types de données](/docs/infrastructure/integrations-sdk/get-started/intro-infrastructure-integrations-sdk#data-types): + +* [Métriques](#metric-data) +* [Événements](#event-data) +* [Inventaire](#inventory) + + + Du point de vue du dashboard New Relic, les métriques infrastructure et les événements sont tous deux classés comme [données d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data). + + + + + Les données métriques d'infrastructure sont généralement utilisées pour des données numériques simples ; par exemple : + + * Nombre de MySQL requests dans une file d'attente par seconde + + * Nombre de connexions actives à un système spécifique par minute + + Outre les métadonnées associées, une métrique est essentiellement un simple nom de métrique et une valeur numérique. Pour en savoir plus sur ces données, consultez [Données d'événement](/docs/data-apis/understand-data/new-relic-data-types/#event-data). + + Voici un exemple de données métriques JSON d'une entité : + + ``` + [ + { + "event_type":"MyorgNginxSample", + "net.connectionsActive": 54, # metric data (a key/value pair) + "net.requestsPerSecond": 21, # metric data (a key/value pair) + "net.reading": 23, # metric data (a key/value pair) + } + ] + ``` + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Champ de données métriques JSON + + Description +
+ `event_type` + + Requis. `event_type` définit où les métriques seront stockées. Chaque ensemble de métriques est stocké sous forme d’échantillon dans le type d’événement spécifié. Chaque intégration doit stocker ses données dans son propre type d&apos;événement. Si vous générez plusieurs types d’échantillons à partir de la même intégration, utilisez des types d’événements différents pour chacun. + + Recommandation : Pour garantir que les types d'événements utilisés par votre intégration sont uniques, préfixez le type d'événement avec le nom ou l'acronyme de votre entreprise. Par exemple, si votre intégration personnalisée capture les métriques de nœud Cassandra et les métriques de famille de colonnes Cassandra sous forme d'échantillons différents, stockez-les dans différents types d'événements, tels que `MyOrgCassandraSample` et `MyOrgCassandraColumnFamilySample`. + + Si le type d'événement n'existe pas, il sera créé automatiquement lorsque New Relic recevra les données de votre intégration et les rendra disponibles dans l'UI. +
+ Une ou plusieurs paires de données métriques valeur clé + + Obligatoire (au moins un). Une mesure métrique contenant un nom (clé) et sa valeur. Assurez-vous qu'ils sont généralement conformes à la spécification du type d'entité pour une compatibilité maximale avec les fonctionnalités infrastructure . + + Recommandation : préfixez votre métrique avec une catégorie pour faciliter la navigation dans les métriques dans l'UI de New Relic. L'intégration de New Relic utilise actuellement : + + * `net`:Nombre de connexions, requests du serveur Web, d&apos;octets transmis sur le réseau, etc. ; par exemple, `net.connectionsActive`. + + * `query`: Métriques directement liées à la requête de base de données ; par exemple, `query.comInsertPerSecond`. + + * `db`: Base de données métriques interne; par exemple, `db.openTables`. + + Utilisez des préfixes à plusieurs niveaux pour un regroupement supplémentaire lorsque cela est judicieux ; par exemple, `db.innodb.bufferPoolPagesFree`. + + Utilisez le format de dénomination `innerCamelCase` ; par exemple : `net.requestsPerSecond`. + + Utilisez un nom métrique aussi proche que possible de celui d'origine tout en respectant les autres spécifications. Par exemple: + + * Nom d'origine: `Qcache_hits` + + * Nom métrique : `db.qCacheHits` +
+ Unité de mesure + + Recommandation : spécifiez l'unité de mesure à l'aide d'un suffixe d'unité s'il n'est pas déjà inclus dans le nom de la métrique d'origine, comme dans les exemples suivants : + + * Pourcentages : utilisez `Percent`; par exemple : `cpuUtilPercent`. + * Tarifs : Utilisez un format tel que `PerSecond`. Les secondes sont la mesure de vitesse standard, mais vous pouvez également utiliser d&apos;autres unités, telles que `PerMinute` ou `PerDay`. + * Mesures d'octets : utilisez `Bytes`. Recommandation : si une métrique est capturée dans une unité différente, telle que `Megabytes`, convertissez-la en `Bytes`. Par exemple : `db.allMemtablesOffHeapSizeBytes`. + * Mesures de temps : utilisez `Milliseconds`. Recommandation : si une métrique est capturée dans une unité différente, telle que `Seconds`, convertissez-la en `Milliseconds`. Par exemple: `query.readLatency50thPercentileMilliseconds` +
+ Valeur + + Utilisez une chaîne ou un nombre (entier ou flottant). Les chaînes peuvent être utilisées comme métadonnées associées, permettant de filtrer les données dans l'UI de New Relic. Un booléen doit être exprimé soit sous forme de chaîne (« vrai », « faux »), soit sous forme d’entier (1, 0). N'utilisez pas de types de valeurs complexes, tels que éventail ou hacher. +
+
+ + + Les données d'événement d'infrastructure représentent des messages arbitraires et ponctuels pour les activités clés d'un système ; par exemple : + + * Démarrage d'un service spécifique + + * Créer une nouvelle table + + Vous pouvez consulter ces données dans la [page infrastructure **Events** ](/docs/infrastructure/new-relic-infrastructure/infrastructure-ui-pages/infrastructure-events-page-live-feed-every-config-change)et [infrastructure événement carte thermique](/docs/infrastructure/new-relic-infrastructure/infrastructure-ui-pages/events-heatmap-examine-patterns-time-range). Vous pouvez également interroger le type d&apos;événement `InfrastructureEvent` dans New Relic. + + Voici un exemple de charge utile JSON de données d'événement d'une intégration, qui suit l'[en-tête JSON](#exec-header) et les définitions de champ. + + ``` + [ + { + "summary":"More than 10 request errors logged in the last 5 minutes", + "category": "notifications" + } + ] + ``` + + + + + + + + + + + + + + + + + + + + + + + +
+ Champ d'événement JSON + + Description +
+ `summary` + + Requis. Le message à envoyer. Utilisez une chaîne simple. +
+ `category` + + Facultatif. Valeur de chaîne d'une des catégories existantes utilisées dans monitoring d'infrastructure, ou d'une nouvelle catégorie. La valeur par défaut est `notifications`. Exemples de catégories : + + * `applications` + * `automation` + * `configuration` + * `metadata` + * `notifications` + * `os` + * `packages` + * `services` + * `sessions` + * `system` + * `users` +
+
+ + + les données d'inventaire de l'infrastructure capturent les informations en direct sur l'état du système ; Par exemple: + + * Données de configuration + + * Versions système installées + + * Autres métadonnées du système + + Vous pouvez consulter ces données sur la [page**Inventory** ](/docs/infrastructure/new-relic-infrastructure/infrastructure-ui-pages/infrastructure-inventory-page-search-your-entire-infrastructure)et [infrastructure événement carte thermique](/docs/infrastructure/new-relic-infrastructure/infrastructure-ui-pages/events-heatmap-examine-patterns-time-range). Vous pouvez également interroger les données relatives aux changements d&apos;inventaire. + + Le type de données `inventory` est un hacher d&apos;un ou plusieurs sous-objets JSON contenant : + + * Une clé d'identification d'inventaire unique (obligatoire) : l'identifiant de l'élément d'inventaire. Ceci est utilisé en combinaison avec le préfixe de l'intégration pour créer un chemin vers les données de l'élément d'inventaire. Les chemins similaires se combinent à travers l'entité et montrent une variance possible. Cet identifiant pointe vers un hacheur. + + * Un hacher de paires valeur clé, une par attribut d'inventaire. Au moins un est requis. + + * Les clés doivent être des chaînes. + + * Les valeurs peuvent être soit un type scalaire (chaîne ou nombre) **or** un autre objet hacher de valeur clé. New Relic prend en charge la hiérarchie, mais les nœuds de valeur finale doivent être scalaires. + + Voici un exemple d'intégration de données d'inventaire JSON : + + ``` + { + "events/worker_connections": { + "value": 1024 + }, + "http/gzip" : { + "value": "on" + } + } + ``` + +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integration-files.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integration-files.mdx new file mode 100644 index 00000000000..bcf8956b3c1 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integration-files.mdx @@ -0,0 +1,19 @@ +--- +title: intégration sur les fichiers hôtes +tags: + - Create integrations + - Infrastructure Integrations SDK + - Specifications +metaDescription: On-host file reporting using the SDK. +freshnessValidatedDate: never +translationType: machine +--- + +Ce document explique les fichiers utilisés pour notre [agent infrastructure d'intégration sur hôte](/docs/infrastructure/host-integrations/installation/install-infrastructure-host-integrations). + +## Fichiers d'intégration [#overview] + +Un agent infrastructure intégration sur hôte contient au moins ces fichiers : + +* Un [fichier exécutable](/docs/infrastructure/infrastructure-integrations/custom-integrations/create-integration-executable-file), écrit dans n&apos;importe quel langage, qui exporte des données JSON dans un format attendu par l&apos;agent d&apos;infrastructure +* Un [fichier de configuration](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format) \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integrations-legacy-configuration-format.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integrations-legacy-configuration-format.mdx new file mode 100644 index 00000000000..3f28d154f01 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integrations-legacy-configuration-format.mdx @@ -0,0 +1,365 @@ +--- +title: "intégration sur hôte\_: format configuration existant" +tags: + - Create integrations + - Infrastructure Integrations SDK + - Specifications +freshnessValidatedDate: never +translationType: machine +--- + +L'intégration de New Relic Infrastructure [sur hôte](/docs/integrations/host-integrations/getting-started/introduction-host-integrations) peut utiliser l&apos;un des deux types de [formatsconfiguration ](/docs/integrations/integrations-sdk/file-specifications/config-file-overview). Ce document explique l&apos;ancienlegacy configuration format . + + + New Relic recommande d'utiliser le nouveau [format de configuration standard amélioré](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format). Pour mettre à jour votre fichier de configuration vers ce nouveau format, consultez la [section de mise à jour](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format#update) + + +Pour une introduction à la configuration, voir [Présentation de la configuration](/docs/integrations/integrations-sdk/file-specifications/config-file-overview). + +## Structure du fichier de configuration [#structure] + +Une intégration sur hôte qui utilise le format de configuration standard nécessite deux fichiers de configuration : + +* Un [fichier de définition](#definition-file) +* Un [fichier de configuration](#config-file) + +## Fichier de définition + +Le fichier de définition a un format de nommage tel que `INTEGRATION_NAME-definition.yml`. Ce fichier fournit des informations descriptives sur l&apos;intégration, telles que : la version du protocole JSON qu&apos;il prend en charge, une liste des commandes qu&apos;il peut exécuter et les arguments qu&apos;il accepte. Il se trouve dans ce répertoire : + +* Linux: + + ``` + /var/db/newrelic-infra/newrelic-integrations + ``` + +* Windows: + + ``` + C:\Program Files\New Relic\newrelic-infra\newrelic-integrations + ``` + +Voici un exemple de fichier de définition d’intégration NGINX avec deux sections de commande sur un système Linux : + +``` +name: com.myorg.nginx +protocol_version: 2 +description: Collect metric and configuration data from NGINX +os: linux +commands: + metrics: + command: + - myorg-nginx + - --metrics + interval: 15 + inventory: + command: + - myorg-nginx + - --inventory + interval: 120 + prefix: integration/myorg-nginx +``` + +Un fichier de définition peut être divisé en deux parties : + +* L'[en-tête](#def-header) +* La [section des commandes](#def-commands) + +### En-tête du fichier de définition [#def-header] + +Voici les explications des éléments d'en-tête d'un fichier de définition : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Champ d'en-tête de définition + + Description +
+ `name` + + Requis. Un nom unique `name` pour identifier l&apos;intégration pour le logging, les métriques internes, etc. Lorsque l&apos;agent charge le fichier de configuration, New Relic utilise `name` pour rechercher l&apos;intégration dans le registre de l&apos;agent. +
+ `protocol_version` + + Requis. Le numéro de version du protocole. New Relic utilise cela pour garantir la compatibilité entre l'intégration et l'agent. Si l'agent ne reconnaît pas la version d'une intégration, il filtrera cette intégration et créera un message de log. + + La version actuelle du protocole JSON est `2`. Pour en savoir plus sur les modifications du protocole, consultez [Modifications du SDK](/docs/integrations/integrations-sdk/getting-started/compatibility-requirements-infrastructure-integrations-sdk#change-log). +
+ `description` + + Facultatif. Explication conviviale de ce que fait l’intégration. +
+ `os` + + Facultatif. Le système d’exploitation sur lequel l’intégration s’exécute. New Relic utilise cela pour filtrer l'intégration que vous souhaitez exécuter uniquement sur un système d'exploitation spécifique. + + Par défaut : exécutez l’intégration quelle que soit la valeur `os` . + + Pour restreindre l’intégration à un système d’exploitation spécifique, utilisez l’une de ces options : + + * `linux` + * `windows` +
+ +### Commandes du fichier de définition [#def-commands] + +Après l'en-tête se trouve une liste de commandes. La section commandes définit : + +* Un ou plusieurs modes de fonctionnement indépendants pour l'exécutable +* Les données d'exécution nécessaires à son exécution + +La section des commandes est une carte YAML des définitions de commandes, où chaque clé est le nom d'alias unique de la commande dans le fichier de configuration de l'intégration qui spécifie l'exécutable à exécuter. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Définition des commandes + + Description +
+ `command` + + Requis. La ligne de commande réelle à exécuter sous la forme d'un éventail YAML de parties de commande. Ceux-ci sont assemblés pour exécuter la commande réelle. Pour les commandes simples, l'éventail peut être constitué d'un seul élément. + + Les règles de commande supplémentaires incluent : + + * `command` arguments : La commande et tous les arguments de ligne de commande qui sont partagés pour toutes les instances de la configuration d&apos;intégration. + + * `command` exécution : La commande sera exécutée dans le même répertoire que le fichier de définition. + + * `command` chemin : toutes les commandes disponibles sur le `$PATH` de l&apos;hôte peuvent être utilisées. Les exécutables situés dans le même répertoire que le fichier de définition, ou dans un sous-répertoire de celui-ci, peuvent être exécutés à l&apos;aide d&apos;un chemin relatif. Par exemple: + + * **Linux:** Pour exécuter un exécutable appelé `myorg-nginx` dans le même répertoire que le fichier de définition, vous pouvez utiliser `myorg-nginx` ou `./myorg-nginx`. Le système Linux exécutera `myorg-nginx` comme si l&apos;utilisateur utilisait `./myorg-nginx`. + * **Windows:** Pour exécuter un exécutable appelé `myorg-nginx.exe` dans le même répertoire que le fichier de définition, vous pouvez utiliser `\myorg-nginx.exe` ou `.\myorg-nginx.exe`. L&apos;écriture système Windows `myorg-nginx.exe` sera exécutée comme si elle indiquait le chemin actuel : `.\myorg-nginx.exe`. + * Pour utiliser une commande installée dans un répertoire sur le `$PATH` de l&apos;hôte, utilisez simplement le nom de la commande. Exemple : `python`. + * Pour exécuter tout autre exécutable qui ne se trouve ni sur le `$PATH` de l&apos;hôte ni dans le répertoire de l&apos;intégration, utilisez un chemin absolu vers l&apos;exécutable. Exemple : `/opt/jdk/bin/java`. + + Si le nom exécutable donné existe dans le répertoire de l'intégration mais existe également ailleurs sur le système `$PATH`, la version dans le répertoire de l&apos;intégration est prioritaire. +
+ `interval` + + Facultatif. Le nombre de secondes entre deux exécutions consécutives de la commande, notamment entre la fin de l'exécution précédente et le début de l'exécution suivante. + + * Par défaut pour l'interrogation métrique : 30 secondes. + * Minimum (plancher) : 15 secondes. + * Alertes : pour les mesures utilisées pour les alertes, utilisez un intervalle de 30 secondes ou moins. +
+ `prefix` + + Facultatif. La catégorisation de l'inventaire sous la forme de `category/short_integration_name`. Exemple : `integration/myorg-nginx`. + + Le préfixe n'est pas un chemin spécifique à la plateforme. La barre oblique est le séparateur correct entre la catégorie et `short_integration_name`. + + Le préfixe peut avoir un maximum de deux niveaux. Dans le cas contraire, l’inventaire ne sera pas signalé. + + Valeur par défaut si non définie : `integration/integration_name`. +
+ +## Fichier de configuration [#config-file] + +Le [fichier de configuration](/docs/infrastructure/infrastructure-integrations/custom-integrations/create-integration-config-file) a un format de nommage tel que `INTEGRATION_NAME-config.yml`. Ce fichier spécifie les exécutables à exécuter et les paramètres requis pour les exécuter. Il se trouve dans ce répertoire : + +* Linux: + + ``` + /etc/newrelic-infra/integrations.d/ + ``` + +* Windows: + + ``` + C:\Program Files\New Relic\newrelic-infra\integrations.d + ``` + + + Nous vous recommandons [de vérifier](http://www.yamllint.com/) les fichiers de configuration YAML avant de les utiliser pour éviter les problèmes de formatage. + + +Voici un exemple de fichier de configuration avec une instance définie. Les explications de ces champs sont expliquées sous l'exemple. + +``` +integration_name: com.myorg.nginx +instances: + - name: nginx1.myorg.com-metrics + command: metrics + arguments: + status_url: http://127.0.0.1/status + labels: + environment: production + role: load_balancer +``` + +Un autre exemple d'un fichier de configuration avec deux instances définies. + +``` +integration_name: com.myorg.nginx +instances: + - name: nginx1.myorg.com-metrics + command: metrics + arguments: + status_url: http://one.url/status + labels: + environment: production + role: load_balancer + - name: nginx2.myorg.com-metrics + command: metrics + arguments: + status_url: http://another.url/status + labels: + environment: production + role: load_balancer +``` + +### Définitions des champs du fichier de configuration [#config-fields] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Champ du fichier de configuration + + Description +
+ `integration_name` + + Requis. Il s'agit de l'en-tête et il est utilisé pour identifier les exécutables à exécuter. Ce nom doit correspondre exactement au nom spécifié dans le [fichier de définition](#definition-file) de l&apos;intégration. + + Recommandation : pour garantir des noms uniques, utilisez la notation de nom de domaine inversée. +
+ `name` + + Requis. Il s’agit du nom de l’invocation spécifique (instance) de l’intégration. Ceci est utilisé pour aider à identifier tout message de log généré par cette intégration et est également utile pour [le dépannage](/docs/infrastructure/new-relic-infrastructure/troubleshooting/generate-logs-troubleshooting-infrastructure). +
+ `command` + + Requis. C'est la commande à exécuter. Cela doit correspondre exactement à l’un des noms d’alias uniques spécifiés dans le [fichier de définition](/docs/infrastructure/integrations-sdk/file-specifications/integration-definition-file-specifications) de l’intégration. +
+ `arguments` + + Facultatif. Un objet YAML où : + + * Clés : le nom de l'argument. Transformé en majuscules lorsqu'il est défini comme variable d'environnement. + + * Valeurs : les valeurs de l’argument. Transmis tel quel. + + Les arguments sont mis à disposition d'une intégration sous la forme d'un ensemble de variables d'environnement. + + Les arguments dans le fichier de configuration ne peuvent pas être en majuscules et doivent utiliser des traits de soulignement pour séparer les mots. +
+ `labels` + + Facultatif. Un objet YAML où : + + * Clés : Le nom de l'étiquette. + * Valeurs : la valeur de l’étiquette définie. +
+ `integration_user` + + Facultatif. Chaîne avec le nom que l'agent utilisera pour exécuter le binaire d'intégration. + + Par défaut : dépend du `usermode`. Par défaut, l&apos;intégration est exécutée avec le même utilisateur qui exécute l&apos;agent d&apos;intégration, nri-agent pour le mode privilégié et non privilégié et l&apos;utilisateur root pour le mode root. + + Lorsqu'il est présent, l'agent d'infrastructure exécutera le binaire d'intégration en tant qu'utilisateur spécifié. Par exemple, pour exécuter le binaire d'intégration en tant qu'utilisateur root lors de l'exécution de l'agent dans un `usermode` différent de `root`, ajoutez simplement `integration_user: root` au fichier de configuration. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format.mdx new file mode 100644 index 00000000000..5032ceaace5 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format.mdx @@ -0,0 +1,844 @@ +--- +title: 'intégration sur hôte : Format configuration standard' +tags: + - Create integrations + - Infrastructure Integrations SDK + - Specifications +freshnessValidatedDate: never +translationType: machine +--- + +En décembre 2019, [la version 1.8.0 de l'agent d'infrastructure](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes) a commencé à prendre en charge ce nouveau format de configuration qui utilise un seul fichier de configuration (au lieu de deux fichiers distincts) et apporte d&apos;autres améliorations. Ce document explique comment fonctionne ce nouveau format. + +L'ancien [format de configuration hérité](/docs/create-integrations/infrastructure-integrations-sdk/specifications/host-integrations-legacy-configuration-format) est également pris en charge par les agents d&apos;infrastructure actuels. + +Pour une introduction à la configuration, voir [Présentation de la configuration](/docs/integrations/integrations-sdk/file-specifications/config-file-overview). + +## Structure de configuration [#configuration-basics] + +La configuration YAML d'une intégration sur hôte doit avoir une section de niveau supérieur `integrations` contenant un éventail YAML, où chaque entrée représente une intégration et sa configuration. + +Pour chaque entrée d'intégration, seule la propriété `name` est obligatoire. Les autres propriétés sont facultatives. + +Voici un exemple configuration comportant deux intégrations : notre [intégrationDocker ](https://github.com/newrelic/nri-docker)intégrée, qui ne nécessite aucune configuration, et notre [intégrationMySQL ](/docs/integrations/host-integrations/host-integrations-list/mysql-monitoring-integration): + +``` +integrations: + # New Relic integration that does not require any configuration + - name: nri-docker + # New Relic integration that gets its configuration from the environment + - name: nri-mysql + env: + PORT: 3306 + USERNAME: newrelic + PASSWORD: 123456789 # to hide this field, read the secrets management documentation + # Any free-form integration executed via a user-provided command + - name: my-own-integration + exec: python /opt/integrations/my-script.py --host=127.0.0.1 +``` + +Vous pouvez avoir autant de fichiers configuration YAML que vous le souhaitez et regrouper votre instance d'intégration. + + + Nous vous recommandons [de vérifier](http://www.yamllint.com/) les fichiers de configuration YAML avant de les utiliser pour éviter les problèmes de formatage. + + +Chaque fichier de configuration YAML peut également contenir des sections de niveau supérieur [`discovery`](/docs/integrations/host-integrations/installation/container-auto-discovery) et [`variables`](/docs/integrations/host-integrations/installation/secrets-management) . + + + Ce format de configuration ne nécessite pas de redémarrage de l'agent. Une fois enregistrées, les modifications sont détectées et implémentées immédiatement. Cela signifie que l’enregistrement des modifications de configuration intermédiaires peut entraîner l’arrêt du fonctionnement de l’intégration. + + +## Liste des propriétés de configuration [#options-list] + +Il s'agit d'une liste des propriétés générales utilisées pour configurer une intégration. Pour plus de détails sur l'utilisation de ces propriétés, y compris des exemples de valeurs, consultez la documentation suivant le tableau. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Configuration + + Description +
+ [`name`](#name) + + Nom de l'intégration. Il s'agit de la seule propriété configuration obligatoire sur toute l'intégration sur hôte. Si le champ `exec` n&apos;est pas défini, ce sera également le nom de l&apos;exécutable d&apos;intégration. +
+ `cli_args` + + Liste facultative d'arguments de ligne de commande lorsque `name` est utilisé pour fournir l&apos;exécutable d&apos;intégration. *Disponible depuis la version d'agent **1.13.0**.* +
+ [`exec`](#exec) + + Chemin complet vers l'exécutable d'intégration, plus les arguments. Il peut s'agir d'une chaîne à une seule ligne ou d'un éventail de chaînes. Si ce champ n'est pas spécifié, la valeur par défaut du champ `exec` est le champ `name` . +
+ [`env`](#env) + + Carte YAML contenant les variables d'environnement à transmettre à l'intégration, où `key` est le nom de la variable d&apos;environnement et `value` est la valeur de la variable. +
+ [`config`](#config) + + configuration qui est écrite sous forme de fichier externe et le chemin qui est passé à l'intégration avec la variable d'environnement `CONFIG_PATH` ou la variable `${config.path}` espace réservé. +
+ [`config_template_path`](#config_template_path) + + Tout fichier externe dont le chemin est transmis à l’intégration avec la variable d’environnement `CONFIG_PATH` ou l’espace réservé à la variable `${config.path}` . Son utilisation permet d&apos;appliquer la découverte et la liaison de secrets à n&apos;importe quelle configuration externe. +
+ [`integration_user`](#integration_user) + + Nom de l'utilisateur qui exécute l'intégration. +
+ [`interval`](#interval) + + Temps entre les exécutions consécutives de l'intégration. Il doit s'agir d'un nombre suivi d'une unité de temps (`s`, `m` ou `h`), sans espaces. +
+ [`inventory_source`](#inventory_source) + + Permet de remplacer la catégorie et le terme de la source d'inventaire. +
+ [`labels`](#labels) + + Carte avec des étiquettes qui agrémentent les données (métriques, événement, inventaire) remontées par l'intégration. +
+ [`timeout`](#timeout) + + Un nombre suivi d'une unité de temps (`ms`, `s`, `m` ou `h`). Une intégration qui n’a pas répondu pendant cette période est arrêtée et redémarrée. +
+ [`working_dir`](#working_dir) + + Répertoire de travail pour le binaire d'intégration. +
+ [quand](#when) + + L'intégration n'est exécutée que si la clause est évaluée à vrai. + + Les conditions sont définies [ci-dessous](#when). +
+ +Le reste de ce document décrit les propriétés de configuration regroupées par fonctionnalité : + +* [Sélectionnez une intégration à exécuter](#select-integration) +* [Transmettre la configuration à la commande d'intégration](#pass-configuration) +* [Configurer la manière dont l’agent exécute l’intégration](#configure-agent-execution) + +## Sélectionnez une intégration à exécuter + +Il existe deux propriétés permettant de sélectionner l'intégration à exécuter : `name` et `exec`. + +La seule propriété obligatoire dans toute l'intégration sur hôte est `name`. Les propriétés restantes spécifiées dans ce document sont facultatives. + +Exemple: + +``` +integrations: + - name: nri-docker + - name: my-integration + exec: /usr/local/bin/my-integration --metrics --inventory +``` + + + nom + } + > + La propriété obligatoire `name` peut fonctionner de deux manières : + + * **If the `exec` property is set**: La propriété `name` fournit uniquement un identifiant pour l&apos;instance d&apos;intégration. Cet identifiant est utilisé dans le message de log et pour fournir une [catégorie/source d'inventaire](/docs/infrastructure/infrastructure-ui-pages/infra-ui-pages/infrastructure-inventory-page-search-your-entire-infrastructure) par défaut sous la forme `integration/` (par exemple, `integration/nri-redis`). Ce chemin d&apos;inventaire peut être remplacé par l&apos;option de configuration `inventory_source` . + + * **If the `exec` property is not set**:L&apos;agent recherche (et exécute) un exécutable avec la valeur `name` dans l&apos;un des dossiers suivants : + + * Linux: + + * `/var/db/newrelic-infra/newrelic-integrations/bin` + * `/var/db/newrelic-infra/newrelic-integrations` + * `/var/db/newrelic-infra/custom-integrations/bin` + * `/var/db/newrelic-infra/custom-integrations` + + * Windows + + * `C:\Program Files\New Relic\newrelic-infra\newrelic-integrations\bin` + * `C:\Program Files\New Relic\newrelic-infra\newrelic-integrations` + + S'il n'y a pas d'exécutable portant ce nom dans les dossiers ci-dessus, l'agent enregistre une erreur et l'intégration n'est pas exécutée. + + + Sous Windows, n’ajoutez pas l’extension `.exe` au nom. L&apos;agent le fait pour vous (par exemple, `name: nri-mysql` rechercherait `nri-mysql.exe` dans les dossiers ci-dessus). + + + + exécutif + } + > + La propriété facultative `exec` spécifie le chemin, la commande et les arguments de ligne de commande de l&apos;intégration à exécuter. Lorsqu&apos;aucun des dossiers de chemin ou des arguments ne contient d&apos;espaces, il peut être écrit dans une chaîne sur une seule ligne : + + ``` + - name: my-integration + exec: /usr/bin/python /opt/integrations/my-script.py --host=127.0.0.1 + ``` + + Si l'un des chemins ou des arguments contient des espaces faisant partie d'un seul élément, vous pouvez utiliser une notation éventail YAML. Pour Windows, assurez-vous d'échapper aux barres obliques inverses avec des guillemets comme ceci : + + ``` + - name: my-integration + exec: + - '"C:\Program Files\My Integration\integration.exe"' + - --host + - 127.0.0.1 + - --port + - 8080 + ``` + + Le répertoire de travail par défaut est le répertoire racine de la configuration de l'agent. Il peut être remplacé par la propriété `working_dir` . + + + cli_args + } + > + La propriété facultative `cli_args` spécifie les arguments de ligne de commande qui doivent être transmis à l&apos;intégration. Il est utile lors de l&apos;utilisation `name` car il fournit uniquement l&apos;identifiant du nom d&apos;intégration (non compatible avec `exec`). + + ``` + - name: my-integration + cli_args: [ -interval 10s ] + ``` + + Le format de liste multiligne YAML habituel peut également être utilisé : + + ``` + - name: my-integration + cli_args: + - -interval + - 10s + ``` + + + quand + } + > + La propriété `when` permet d&apos;exécuter l&apos;intégration uniquement lorsque toutes les conditions évaluées sont réussies. + + Les conditions disponibles sont : + + * `env_exists`:Les variables d&apos;environnement existent et correspondent à la valeur. + + * `file_exists`:Le chemin de fichier donné existe. + + * `feature`: À condition que l&apos;indicateur de fonctionnalité soit activé. + + Exemple: + + ``` + integrations: + - name: ssh-integration + when: + file_exists: /var/run/sshd.pid + ``` + + + +## Transmettre la configuration à l'exécutable d'intégration + +Souvent, les exécutables d'intégration ont besoin de recevoir une configuration pour fonctionner correctement (par exemple, nom d'hôte et port du système de monitoring, identifiants de l'utilisateur, etc.). + +L'agent d'infrastructure vous permet de configurer les commandes d'intégration de trois manières (que vous pouvez combiner) : + +* Variables d'environnement, utilisant la [propriété`env` ](#env). (recommandé) +* Arguments de ligne de commande, passés dans la [propriété`exec` ](#exec). +* Fichiers de configuration, dont le chemin doit être transmis via des variables d'environnement ou des arguments de ligne de commande (voir la propriété [config](#config)). + +Exemple: + +``` +integrations: + - name: my-integration + exec: /opt/path/bin/script --host 127.0.0.1 --port 8081 + - name: nri-mysql + env: + STATUS_URL: http://10.0.0.3/server-status?auto + REMOTE_MONITORING: true +``` + + + env + } + > + La propriété `env` vous permet de définir des variables d’environnement qui sont transmises à l’exécutable. Il s&apos;agit d&apos;une carte valeur clé avec les variables requises. + + + New Relic recommande de transmettre les clés `env` en majuscules, comme dans l&apos;exemple ci-dessous, pour la compatibilité avec toutes les versions d&apos;agent d&apos;infrastructure depuis la version 1.8.0.
Si vous utilisez la version 1.20.0 ou supérieure de l&apos;agent, vous pouvez utiliser des lettres minuscules car l&apos;agent [les mettra automatiquement en majuscules](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes/new-relic-infrastructure-agent-1200#changed). +
+ + Exemple: + + ``` + integrations: + - name: nri-postgresql + env: + DATABASE: postgres + PORT: 6432 + COLLECTION_LIST: '["postgres"]' + COLLECT_DB_LOCK_METRICS: false + VERBOSE: 1 + ``` + + Si vous vous attendez à ce que votre intégration reçoive la configuration de l'environnement de l'hôte plutôt que de la spécifier explicitement dans le fichier de configuration, vous devez définir les variables requises dans la propriété de configuration globale [`passthrough_environment`](/docs/integrations/host-integrations/troubleshooting/pass-infrastructure-agent-parameters-host-integration) de l&apos;agent d&apos;infrastructure +
+ + configuration + } + > + Cette section décrit différentes manières de transmettre des informations de configuration à une intégration. + + + **Pass configuration file directly** + + + Certaines commandes d'intégration peuvent obtenir leur configuration à partir d'un fichier externe. Si votre intégration nécessite un fichier de configuration, rien ne vous empêche de passer directement son chemin directement en argument de ligne de commande ou en variable d'environnement. Voici un exemple utilisant la configuration de notre [intégration Flex](/docs/integrations/host-integrations/host-integrations-list/flex-integration-tool-build-your-own-integration): + + ``` + integrations: + - name: nri-flex + env: + CONFIG_FILE: /etc/nri-flex/configs/http-service.yaml + - name: other-integration + exec: /opt/integration/integration -f /opt/integration/config.properties + ``` + + L'exemple ci-dessus suppose que les fichiers `http-service.yaml` et `config.properties` existent. Nous pouvons voir que l&apos;intégration `nri-flex` attend le chemin complet `http-service.yaml` via la variable d&apos;environnement `CONFIG_FILE` et que `other-integration` attend le chemin complet `config.properties` après l&apos;indicateur de ligne de commande `-f` . + + Dans l'exemple ci-dessus, il est nécessaire pour le programme d'intégration d'installation/configurateur que les fichiers configuration existent dans le chemin fourni et que l'agent et l'intégration aient des autorisations de lecture sur eux. + + + **Pass configuration through `config` section** + + + Si vous préférez conserver votre fichier de configuration avec le reste de la configuration d'intégration, vous pouvez utiliser la section `config` dans l&apos;entrée d&apos;intégration, qui peut contenir un objet YAML valide ou simplement une chaîne multiligne : + + ``` + integrations: + - name: nri-flex + env: + CONFIG_FILE: ${config.path} + config: + name: csvFileExample + apis: + - name: csvFile + file: /Users/hello/test.csv + - name: other-integration + exec: /opt/integration/integration -f ${config.path} + config: | + example.cfg.verbose=true + example.cfg.logger=/var/logs/integration.log + example.cfg.hostname=localhost + example.cfg.port=9025 + ``` + + Dans les exemples ci-dessus, chaque fois que l'intégration `nri-flex` est exécutée, l&apos;agent crée un fichier temporaire avec le contenu suivant : + + ``` + name: csvFileExample + apis: + - name: csvFile + file: /Users/hello/test.csv + ``` + + Le YAML ci-dessus n'est qu'un exemple de configuration pour l'intégration `nri-flex` . L&apos;agent ignore son contenu ; à la place, il crée un fichier temporaire et remplace l&apos;espace réservé à la variable `${config.path}` par son chemin. Une fois l&apos;intégration terminée, le fichier temporaire est supprimé. + + De plus, l'agent crée un autre fichier temporaire avant d'exécuter l'intégration `other-integration` : + + ``` + example.cfg.verbose=true + example.cfg.logger=/var/logs/integration.log + example.cfg.hostid=localhost + example.cfg.port=9025 + ``` + + Il remplace l'espace réservé de la ligne de commande `-f ${config.path}` par le chemin temporaire du fichier écrit. + + Par convention, si vous ne placez pas la variable `${config.path}` dans un argument de ligne de commande ou une valeur de variable d&apos;environnement, l&apos;agent transmet le chemin du fichier de configuration via la variable d&apos;environnement `CONFIG_PATH` : + + ``` + # assuming that nri-example command is prepared to receive the configuration + # file via the CONFIG_PATH environment variable + integrations: + - name: nri-example + config: + name: csvFileExample + apis: + - name: csvFile + file: /Users/hello/test.csv + ``` + + + **Pass secrets and discovery through `config` section** + + + Le principal avantage de l'utilisation d'une section `config` au lieu de coder en dur le chemin complet d&apos;un fichier externe est que vous pouvez insérer un espace `${variable}` réservé pour appliquer notre [fonctionnalité de découverte automatique](/docs/integrations/host-integrations/installation/container-auto-discovery) et [de gestion des secrets](/docs/integrations/host-integrations/installation/secrets-management). + + Voici un exemple suivi de quelques explications : + + ``` + variables: + my_credentials: + vault: + http: + url: http://my.vault.host/v1/newengine/data/secret + headers: + X-Vault-Token: my-vault-token + discovery: + docker: + match: + label.service: foo + integrations: + - name: foo-monitor + exec: /opt/foo/bin/monitor --config=${config.path} + config: | + foo.host=${discovery.ip} + foo.port=${discovery.port} + foo.user=${my_credentials.user} + foo.password=${my_credentials.password} + ``` + + + (Pour plus de détails sur les sections `variables` et `discovery` , veuillez consulter la documentation [sur la découverte](/docs/integrations/host-integrations/installation/container-auto-discovery) et [la gestion des secrets](/docs/integrations/host-integrations/installation/secrets-management) ). + + + L'exemple ci-dessus repose sur les prémisses suivantes : + + * Il existe un service [Vault](https://www.vaultproject.io/) qui permet de récupérer un objet JSON formé des champs `user` et `password` . + * Il peut y avoir un nombre variable de conteneurs Docker étiquetés avec `service=foo`, qui sont accessibles depuis l&apos;agent hôte via une IP publique et un port détectables. + * L'utilisateur a configuré l'intégration `foo-monitor` pour monitorer tous les conteneurs étiquetés `service=foo` , qui partagent un utilisateur et un mot de passe communs. Chaque instance de l&apos;intégration `foo-monitor` nécessite l&apos;exécution de l&apos;exécutable `/opt/foo/bin/monitor` , en passant la configuration du texte à l&apos;intérieur de la section `config` via l&apos;argument de ligne de commande `--config=` . + + À titre d’exemple de workflow, imaginez que l’invocation de Vault renvoie le JSON suivant : + + ``` + {"user":"monitorer","password":"5up3r53cr3t!"} + ``` + + Au moment de l'exécution de l'intégration `foo-monitor` , il y a trois conteneurs en cours d&apos;exécution étiquetés avec `service=foo`: + + 1. adresse IP : `10.0.0.3`, port : `8080` + 2. adresse IP : `10.0.0.3`, port : `8081` + 3. adresse IP : `10.0.0.3`, port : `8082` + + L'agent crée ensuite les trois fichiers temporaires suivants, en utilisant le contenu de la propriété `config` comme modèle, mais en remplaçant le `${placeholders}` par les variables acquises et les éléments découverts (le chemin des fichiers est inventé par souci de simplicité) : + + * Premier match (`/tmp/123_discovered`): + + ``` + foo.host=10.0.0.3 + foo.port=8080 + foo.user=monitorer + foo.password=5up3r53cr3t! + ``` + + * Deuxième match (`/tmp/456_discovered`): + + ``` + foo.host=10.0.0.3 + foo.port=8081 + foo.user=monitorer + foo.password=5up3r53cr3t! + ``` + + * Troisième match (`/tmp/789_discovered`) + + ``` + foo.host=10.0.0.3 + foo.port=8082 + foo.user=monitorer + foo.password=5up3r53cr3t! + ``` + + Après que la variable `config` espace réservé a été remplacée et que les fichiers temporaires ont été créés, l&apos;exécutable `/opt/foo/bin/monitor` est exécuté trois fois (une par conteneur correspondant), en remplaçant la ligne de commande `${config.path}` espace réservé par le fichier temporaire correspondant à chaque configuration découverte : + + * Premier match : `/opt/foo/bin/monitor --config=/tmp/123_discovered` + * Deuxième match : `/opt/foo/bin/monitor --config=/tmp/456_discovered` + * Troisième match : `/opt/foo/bin/monitor --config=/tmp/789_discovered` + + Pour garantir la sécurité et minimiser les risques de fuite de secrets sur le disque, l'agent : + + * Crée les fichiers appartenant à l'utilisateur de l'agent, par exemple, `root` ou `nri-agent`, selon l&apos;utilisateur que vous avez configuré pour exécuter l&apos;agent. + * Définit les autorisations de lecture uniquement pour le propriétaire. + * Supprime les fichiers créés lorsque l'instance d'intégration termine son exécution. + + + config_template_path + } + > + Si vous souhaitez utiliser la gestion et la découverte des secrets dans les fichiers de configuration que vous transmettez à l'exécutable d'intégration, mais que vous préférez les conserver sous forme de fichier individuel, vous pouvez utiliser l'option `config_template_path: ` . Cela fonctionne exactement comme dans la section `config` : + + 1. L'agent applique [la gestion des secrets](/docs/integrations/host-integrations/installation/secrets-management) et [la découverte](/docs/integrations/host-integrations/installation/container-auto-discovery) au contenu du fichier. + + 2. L'agent crée différents fichiers temporaires qui sont transmis à l'intégration via l'espace réservé `${config.path}` (ou la variable d&apos;environnement `CONFIG_PATH` ). + + Exemple: + + ``` + discovery: + docker: + match: + name: /^redis/ + integrations: + - name: nri-flex + env: + CONFIG_FILE: ${config.path} + config_template_path: /etc/flex-configs/redis.yml + ``` + + Dans l'exemple ci-dessus, le fichier externe `redis.yml` peut contenir un espace de variable de découverte de conteneur réservé, comme `${discovery.ip}` ou `${discovery.port}`. + +
+ +## Configurer la manière dont l'agent exécute votre intégration + +Les propriétés de cette section modifient la manière dont l'agent infrastructure s'exécute et interagit avec l'intégration, ou la manière dont l'agent décore les données de l'intégration. + + + integration_user + } + > + Les commandes d'intégration s'exécutent avec le même utilisateur que l'agent (généralement `root` ou `nri-agent`). Si, en raison de restrictions d&apos;autorisation, une intégration doit s&apos;exécuter sous le nom d&apos;un autre utilisateur, son nom doit être spécifié dans la propriété `integration_user` . + + Exemple: + + ``` + integrations: + - name: dbus-inventory + exec: python my-dbus-script.py + integration_user: dbus + ``` + + + intervalle + } + > + L'option `interval` définit le temps entre les exécutions consécutives d&apos;une intégration. Le format accepté est un entier immédiatement suivi d&apos;une unité de temps (`s` pour les secondes, `m` pour les minutes, `h` pour les heures). + + La valeur par défaut est `30s` et la valeur minimale acceptée est `15s`. Toute valeur inférieure à `15s` est automatiquement définie sur `15s`. + + Exemple: + + ``` + integrations: + - name: nri-nginx + env: + STATUS_URL: http://127.0.0.1/status + STATUS_MODULE: discover + interval: 20s + ``` + + + inventory_source + } + > + Tout élément d’inventaire doit être catalogué sous une taxonomie `category/source` . Par défaut, chaque inventaire d&apos;intégration est stocké sous la forme d&apos;une valeur `integration/` + `name` (par exemple, `integration/nri-apache`, `integration/nri-mysql`). + + La propriété `inventory_source` vous permet de remplacer la taxonomie par défaut des données d&apos;inventaire. + + Exemple: + + ``` + integrations: + - name: nri-nginx + - name: nri-apache + exec: + - /var/db/newrelic-infra/newrelic-integrations/bin/nri-apache + - --inventory + inventory_source: config/apache + ``` + + Dans l'exemple ci-dessus, l'inventaire `nri-nginx`, le cas échéant, serait visible dans l&apos;UI de New Relic sous la source `integration/nri-nginx`. L&apos;inventaire `nri-apache` serait visible sous `config/apache`. + + + étiquettes + } + > + `labels` est une carte valeur clé qui permet de fournir des métadonnées supplémentaires pour l&apos;intégration. L&apos;agent utilise ces étiquettes pour décorer les métriques, les événements et l&apos;inventaire qu&apos;il reçoit d&apos;une instance d&apos;intégration donnée. + + Exemple: + + ``` + integrations: + - name: nri-apache + inventory_source: config/apache + labels: + env: production + role: load_balancer + ``` + + Dans l'exemple ci-dessus, l'agent décore toutes les métriques et événements de l'instance `nri-apache` avec les champs suivants : + + * `label.env`: `production` + * `label.role`: `load_balancer` + + De plus, les entrées suivantes sont ajoutées à l’inventaire d’intégration : + + * `config/apache/labels/env`: `production` + * `config/apache/labels/role`: `load_balancer` + + + temps mort + } + > + Si une intégration n'a renvoyé aucune métrique (ou un message de pulsation comme décrit ci-dessous) avant l'heure spécifiée dans la valeur `timeout` , l&apos;agent arrête le processus d&apos;intégration et le redémarre après le `interval` correspondant. Le format accepté est un nombre entier immédiatement suivi (sans espaces) d&apos;une unité de temps (`ms` pour les millisecondes, `s` pour les secondes, `m` pour les minutes, `h` pour les heures). + + Si une valeur `timeout` nulle (ou négative) est fournie, l&apos;intégration peut s&apos;exécuter indéfiniment sans être interrompue par une expiration de délai. + + Pour les intégrations de longue durée (intégrations qui continuent de fonctionner, renvoyant périodiquement des métriques/événement/inventaire), chaque fois que l'intégration soumet une charge métriques/événement/inventaire, le délai d'expiration est redémarré. Cela signifie que l'intégration de longue durée doit renvoyer une charge JSON valide dans un intervalle inférieur à `timeout`. + + Le renvoi d'un JSON vide (`{}`) est interprété comme un message de *pulsation* qui redémarre le délai d&apos;expiration, empêchant l&apos;arrêt de l&apos;intégration de longue durée, même si elle n&apos;a pas d&apos;informations à signaler. + + La valeur par défaut est `120s` et la valeur minimale acceptée est `100ms`. Toute valeur inférieure à `100ms` est automatiquement définie sur `100ms`. + + Exemple: + + ``` + integrations: + - name: nri-jmx + cli_args: + JMX_HOST: jmx-host.localnet + JMX_PORT: 7096 + COLLECTION_FILES: "/etc/newrelic-infra/integrations.d/jvm-metrics.yml" + timeout: 30s + ``` + + + working_dir + } + > + `working_dir` définit le répertoire de travail de la commande. Si vide ou non spécifié, l&apos;agent exécute la commande dans le répertoire actuel de l&apos;agent d&apos;infrastructure. + + La valeur par défaut est le répertoire racine de l’agent d’infrastructure. + + Exemple: + + ``` + integrations: + - name: my-integration + exec: /opt/integration/bin/integration + working_dir: /opt/integration/scratch-zone + ``` + + + +## Mettre à jour l’ancienne configuration d’intégration [#update] + +En décembre 2019, la [version 1.8.0 de l'agent d'infrastructure](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes) a commencé à utiliser un format de configuration différent. + +La principale différence entre ces formats est que l'ancien format de configuration utilise deux fichiers de configuration distincts (un fichier `INTEGRATION_NAME-definition.yml` et un fichier `INTEGRATION_NAME-config.yml` ) et la version plus récente utilise un seul fichier de configuration. + +Voici quelques-unes des fonctionnalités ajoutées par la nouvelle fonctionnalité de configuration : + +* configuration flexible via des arguments de ligne de commande, des variables d'environnement ou des fichiers externes. +* Possibilité de regrouper différentes intégrations dans un même fichier. +* Rechargement à chaud : l'ajout d'une nouvelle intégration ou la modification de sa configuration ne nécessite pas de redémarrage de l'agent. +* Délais d'expiration : si une intégration ne répond pas avant un délai spécifié par l'utilisateur, le processus d'intégration est arrêté et redémarré. + +Toutes les intégrations sur hôte ne sont pas livrées avec le nouveau format configuration , mais vous pouvez mettre à jour la configuration vers le nouveau format pour toutes les intégrations sur hôte afin de profiter de la nouvelle fonctionnalité. + +Le YAML suivant montre un exemple de configuration [d’intégration Apache](/docs/integrations/host-integrations/host-integrations-list/apache-monitoring-integration) utilisant l’ancien format de configuration. Notez que cette configuration fonctionnera toujours avec les agents plus récents, mais nous vous recommandons de mettre à jour votre intégration pour profiter pleinement des fonctionnalités. + +``` +integration_name: com.newrelic.apache + +instances: + - name: apache-server-metrics + command: metrics + arguments: + status_url: http://127.0.0.1/server-status?auto + remote_monitoring: true + labels: + env: production + role: load_balancer + - name: apache-server-inventory + command: inventory + arguments: + remote_monitoring: true + labels: + env: production + role: load_balancer +``` + +Pour mettre à jour une ancienne configuration d’intégration vers le nouveau format, utilisez l’une des méthodes suivantes : + +### Méthode assistée [#assisted-method] + +À l’aide de la [CLI New Relic](https://developer.newrelic.com/automate-workflows/get-started-new-relic-cli/), exécutez la commande suivante pour convertir automatiquement vos anciens fichiers de définition/configuration au nouveau format de configuration : + +```shell +newrelic agent config migrateV3toV4 -d /path/definitionFile -c /path/configFile -o /path/outputFile +``` + +Exemples : + + + + Le chemin utilisé ci-dessous est l'emplacement par défaut pour l'intégration basée sur Linux. Vous devrez peut-être ajuster le chemin si vous utilisez un emplacement personnalisé : + + ``` + newrelic agent config migrateV3toV4 \ + -d /var/db/newrelic-infra/newrelic-integrations/redis-definition.yml \ + -c /etc/newrelic-infra/integrations.d/redis-config.yml \ + -o /etc/newrelic-infra/integrations.d/redis.yml + ``` + + + + Le chemin utilisé ci-dessous est l'emplacement par défaut pour l'intégration basée sur Windows . Vous devrez peut-être ajuster le chemin si vous utilisez un emplacement personnalisé : + + ``` + newrelic agent config migrateV3toV4 ^ + -d 'C:\Program Files\New Relic\newrelic-infra\newrelic-integrations\mssql-definition.yml' ^ + -c 'C:\Program Files\New Relic\newrelic-infra\integrations.d\mssql-config.yml' ^ + -o 'C:\Program Files\New Relic\newrelic-infra\integrations.d\mssql.yml' + ``` + + + +### Méthode manuelle [#manual-method] + +Pour convertir le fichier d’intégration manuellement : + +1. Renommez la section de niveau supérieur `instances` en `integrations`. +2. Supprimez la section de niveau supérieur `integration_name` et ajoutez-la à chaque entrée d&apos;intégration. Vous n’êtes plus obligé de conserver un fichier distinct pour chaque type d’intégration et vous pouvez regrouper vos entrées d’intégration legacy dans le même fichier que les autres intégrations. + +Voici un exemple de la nouvelle version de la configuration de l'intégration Apache : + +```yml +integrations: + - name: nri-apache + env: + METRICS: "true" + STATUS_URL: http://127.0.0.1/server-status?auto + REMOTE_MONITORING: true + interval: 15s + labels: + env: production + role: load_balancer + + - name: nri-apache + env: + INVENTORY: "true" + STATUS_URL: http://127.0.0.1/server-status?auto + REMOTE_MONITORING: true + interval: 60s + labels: + env: production + role: load_balancer + inventory_source: config/apache +``` + + + Veuillez noter que l'ancien format de configuration ne prend pas en charge le rechargement à chaud. Par conséquent, vous devez redémarrer l’agent infrastructure pour supprimer l’ancienne configuration d’intégration. Sinon, l’ancienne instance coexistera avec les nouvelles. + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/integration-logging-recommendations.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/integration-logging-recommendations.mdx new file mode 100644 index 00000000000..c524e7c26b0 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/integration-logging-recommendations.mdx @@ -0,0 +1,32 @@ +--- +title: Recommandations pour le logging de l'intégration +tags: + - Create integrations + - Infrastructure Integrations SDK + - Specifications +metaDescription: Integration logging recommendations. +freshnessValidatedDate: never +translationType: machine +--- + +[L'agent infrastructure ](/docs/infrastructure/new-relic-infrastructure/getting-started/introduction-new-relic-infrastructure)de New Relic fournit un [SDK pour créer une intégration sur hôte](/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/get-started/introduction-infrastructure-integrations-sdk/). Ce document explique les exigences et les bonnes pratiques pour générer un log d&apos;intégration. + +## Exigences en matière de logging [#required] + +C'est à vous de décider quel type de message de log créer et quel type d'informations seront utiles pour résoudre les problèmes. Il n'y a qu'une seule exigence : l'exécutable d'intégration doit écrire le log sur l'erreur standard (stderr). + +L'agent d'infrastructure capturera les lignes écrites dans l'erreur standard et les fusionnera dans le [flux de logging](/docs/infrastructure/new-relic-infrastructure/troubleshooting/generating-logs-troubleshooting-infrastructure) écrit par l&apos;agent d&apos;infrastructure lui-même. + +Pour éviter de dépendre de solutions de logging tierces, la bibliothèque de construction d'intégration Go fournit un [simple log package](https://github.com/newrelic/infra-integrations-sdk/blob/master/docs/toolset/log.md) avec le niveau de log commun. + +## Recommandations et bonnes pratiques [#recommended] + +Voici les pratiques recommandées pour générer le log d’intégration : + +* Par défaut, une intégration doit être « silencieuse ». Outre les données émises vers la sortie standard, il devrait y avoir très peu de messages de logging ou de diagnostic générés. +* Nous vous recommandons d'inclure un mode de logging détaillé similaire au paramètre [`verbose`](/docs/infrastructure/new-relic-infrastructure/configuration/configure-infrastructure-agent#verbose) dans l&apos;agent d&apos;infrastructure. Inclure un commutateur de ligne de commande pour activer et désactiver le logging détaillé (par exemple, `-verbose`). +* Pour déboguer votre intégration pendant que l'intégration est en cours d'exécution, incluez le commutateur verbose dans le fichier de définition dans le cadre de la ligne de commande à exécuter. Cela enverra le log détaillé au infrastructure propre fichier de de l'agent log. +* À des fins de débogage générales, utilisez un indicateur qui écrit les données JSON de sortie standard sous une forme « joliment imprimée » lisible par l'homme (par exemple, `--pretty`). Notez que la sortie écrite sous une forme « jolie » est uniquement destinée à vos besoins de débogage et n&apos;est pas compatible avec l&apos;agent d&apos;infrastructure. +* Votre intégration doit être créée de manière à pouvoir fonctionner de manière autonome. En cas de doute sur le fait que l'intégration communique avec l'agent, vous pouvez exécuter l'intégration à partir de la ligne de commande et voir si elle produit la sortie ou le message de log correct que vous attendez. + +Pour plus d'informations sur le package de logging du langage Go, voir [package de logging](https://github.com/newrelic/infra-integrations-sdk/blob/master/docs/toolset/log.md). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/troubleshooting/not-seeing-attributes.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/troubleshooting/not-seeing-attributes.mdx new file mode 100644 index 00000000000..36fd25ab15a --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/troubleshooting/not-seeing-attributes.mdx @@ -0,0 +1,28 @@ +--- +title: Ne pas voir les données d'attribut +type: troubleshooting +tags: + - Create integrations + - Infrastructure Integrations SDK + - Troubleshooting +metaDescription: Integration troubleshooting. +freshnessValidatedDate: never +translationType: machine +--- + +## Problème + +Votre intégration rapporte des données, mais quelques attributs d'inventaire manquent. + +## Solution + +Les noms de clés d'inventaire suivants sont utilisés en interne par notre plateforme. Si l'intégration fournie par les clients envoie des éléments d'inventaire avec le même nom de clé, ils resteront invisibles pour l'utilisateur : + +* `pid` +* `installed_epoch` +* `epoch` +* `time` +* `size` +* `boot_id` +* `product_uuid` +* `installed_time` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/troubleshooting/not-seeing-infrastructure-integration-data.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/troubleshooting/not-seeing-infrastructure-integration-data.mdx new file mode 100644 index 00000000000..c3e7a26c744 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/troubleshooting/not-seeing-infrastructure-integration-data.mdx @@ -0,0 +1,142 @@ +--- +title: Ne pas voir les données d'intégration de l'infrastructure +type: troubleshooting +tags: + - Create integrations + - Infrastructure Integrations SDK + - Troubleshooting +metaDescription: Integration troubleshooting. +freshnessValidatedDate: never +translationType: machine +--- + +## Problème + +Vous avez créé une infrastructure intégration personnalisée sur hôte à l'aide [du SDK d'intégration](/docs/integrations/integrations-sdk/getting-started/introduction-infrastructure-integrations-sdk), mais vous ne voyez pas de données dans l&apos;UI infrastructure. + +## Solution + +Pour dépanner et résoudre le problème : + +1. Vérifiez que votre intégration répond à nos [exigences d'intégration](#requirements). +2. Après avoir éliminé les problèmes courants liés aux exigences d'intégration, suivez les procédures de dépannage plus approfondies pour [le log des erreurs](#check-errors) et [le chargement de l'intégration](#check-loading). + + + + Si vous ne recevez pas de données de votre intégration personnalisée, vérifiez que votre intégration respecte ces exigences. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Exigences d'intégration + + Commentaires +
+ Environnement + + Assurez-vous que votre environnement répond aux [exigences du SDK d'intégration](/docs/compatibility-requirements-infrastructure-integration-sdk). +
+ Fichier de configuration + + 1. Utilisez un validateur tel que [yamllint](http://www.yamllint.com/) pour vérifier que le fichier de configuration est un fichier YAML valide. + 2. Vérifiez que le fichier est au [bon emplacement](/docs/infrastructure/integrations-sdk/get-started/create-activate-infrastructure-integration#placement-naming). +
+ Fichier de définition + + 1. Utilisez un validateur tel que [yamllint](http://www.yamllint.com/) pour vérifier que le fichier de définition est un fichier YAML valide. + 2. Vérifiez que les champs d'en-tête ont le [format requis](/docs/infrastructure/integrations-sdk/file-specifications/integration-definition-file-specifications#def-header). + 3. Vérifiez que le [préfixe d’inventaire](/docs/infrastructure/integrations-sdk/file-specifications/integration-definition-file-specifications#def-commands) défini dans le fichier de définition n’a pas plus de deux niveaux de profondeur. + 4. Vérifiez que le fichier est au [bon emplacement](/docs/infrastructure/integrations-sdk/get-started/create-activate-infrastructure-integration#placement-naming). +
+ ensembles métriques + + Vérifiez que l'intégration : + + * Ne génère pas d'ensembles métriques avec plus de 120 paires valeur clé. + * Ne génère pas plus de 1000 ensembles métriques. +
+ Frais JSON + + Vérifiez que l’intégration ne génère pas une seule charge utile JSON de plus de 5 Mo. +
+
+ + + Après avoir éliminé les problèmes courants liés aux [exigences d’intégration](#requirements), suivez ces procédures de dépannage plus approfondies. + + Recommandation : [Configurer un fichier de log](/docs/infrastructure/new-relic-infrastructure/troubleshooting/generating-logs-troubleshooting-infrastructure) dans la de infrastructure l&apos;agent configuration. Cela permet de séparer les types d’erreurs afin que vous puissiez repérer plus facilement les erreurs d’intégration. + + Lorsqu'une erreur se produit lors du chargement ou de l'exécution de votre intégration, l'agent infrastructure ajoute un message d'erreur au fichier de log. Les erreurs sont enregistrées même si le mode `verbose` est désactivé. + + 1. Vérifiez le fichier de log pour les lignes qui incluent `"level=error"`. + 2. S'il n'y a pas de message d'erreur, vérifiez si l'agent infrastructure [charge correctement l'intégration](#check-loading). + + + + Pour vérifier si l’agent d’infrastructure charge correctement l’intégration : + + 1. Activez [le mode`verbose` ](/docs/infrastructure/new-relic-infrastructure/troubleshooting/generating-logs-troubleshooting-infrastructure)dans la configuration de l’agent d’infrastructure. + + 2. [Redémarrez l'agent d'infrastructure](/docs/infrastructure/new-relic-infrastructure/configuration/start-stop-restart-check-infrastructure-agent-status). + + 3. Vérifiez que les premières lignes du fichier de log contiennent deux messages : + + ``` + "loaded plugin" plugin= + "found plugin config file" plugin-path="" + ``` + + 4. Vérifiez les erreurs juste avant ou après ces lignes qui indiquent un problème de chargement. + + L'agent planifie l'envoi des données en fonction de la planification définie dans le fichier de définition. Recherchez dans le fichier de log le JSON de l'intégration. + + + **JSON payload example** + + + ``` + nri-nginx: {\"name\":\"com.newrelic.nginx\",\"protocol_version\":\"1\",\"integration_version\":\"0.5.0\",\"metrics\": + [{\"event_type\":\"NginxSample\",\"net.connectionsAcceptedPerSecond\":0.10344827586206896,\"net.connectionsActive\":1, + \"net.connectionsDroppedPerSecond\":0,\"net.connectionsReading\":0,\"net.connectionsWaiting\":0,\"net.connectionsWriting\":1, + \"net.requestsPerSecond\":0.10344827586206896,\"software.edition\":\"open source\",\"software.version\":\"1.4.6 (Ubuntu)\"}],\"inventory\":{},\"events\":[]} + ``` + +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/installation/container-auto-discovery-host-integrations.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/installation/container-auto-discovery-host-integrations.mdx new file mode 100644 index 00000000000..851cbe383c7 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/installation/container-auto-discovery-host-integrations.mdx @@ -0,0 +1,363 @@ +--- +title: découverte automatique du conteneur pour l'intégration sur hôte +tags: + - Integrations + - On-host integrations + - Installation +metaDescription: Use discovery to automatically configure a New Relic infrastructure integration to monitor services that may run in multiple containers. +freshnessValidatedDate: never +translationType: machine +--- + +Notre fonctionnalité de découverte automatique de conteneurs vous permet de configurer une intégration pour monitorer automatiquement les services qui s'exécutent dans plusieurs conteneurs. Dans le fichier configuration d'une intégration, vous pouvez définir les critères de correspondance des conteneurs et l'agent exécute l'intégration pour chaque conteneur local correspondant aux critères. + +Une intégration sera exécutée autant de fois qu'elle trouvera des éléments de découverte. Si la découverte ne trouve aucun conteneur, l'intégration ne sera pas exécutée. + + + Actuellement, l'[agent infrastructure ](/docs/infrastructure/install-configure-manage-infrastructure)peut découvrir le conteneur Docker local. + + +## Ajoutez de l'espace réservé à votre configuration [#placeholders] + +Dans votre configuration d'intégration, vous devez créer `${discovery.}` espace réservé. Ceux-ci seront ensuite automatiquement remplacés par des informations spécifiques au conteneur. + +Ces exemples (pour les environnements Docker uniquement et pour Kubernetes) montrent comment configurer une [intégration NGINX](/docs/infrastructure/host-integrations/host-integrations-list/nginx/nginx-integration) pour monitorer tous les conteneurs locaux qui ont un nom d&apos;image contenant `nginx` et qui sont étiquetés comme `env=production`. Chaque service sera disponible via des IP et des ports différents, ils doivent donc être variables. + + + + Cette configuration s'applique aux scénarios non orchestrés, où Docker est utilisé sans Kubernetes ou d'autres environnements d'orchestration. + + ``` + discovery: + docker: + match: + image: /nginx/ + label.env: production + integrations: + - name: nri-nginx + env: + # use discovery.private.ip if container doesn't have attached public ip address + STATUS_URL: http://${discovery.ip}:${discovery.port}/status + REMOTE_MONITORING: true + METRICS: 1 + labels: + env: ${discovery.label.env} + role: ${discovery.label.role} + ``` + + + + Si vous utilisez Kubernetes et notre [intégration Kubernetes](/docs/integrations/kubernetes-integration/get-started/introduction-kubernetes-integration), voici à quoi ressemblerait le ConfigMap pour l&apos;intégration. Notez que `nri-discovery-kubernetes` détectera automatiquement la configuration. Cependant, si une personnalisation est nécessaire, l&apos;outil accepte plusieurs arguments facultatifs : + + * `--namespaces`: Liste des espaces de nommage séparés par des virgules + + * `--tls`:Utiliser une connexion sécurisée (TLS) + + * `--port`:Le port utilisé pour se connecter au kubelet. + + * `--host`: L&apos;hôte utilisé pour se connecter au kubelet. + + ``` + --- + apiVersion: v1 + kind: ConfigMap + metadata: + name: nri-integration-cfg + namespace: default + data: + nginx-config.yaml: | + --- + discovery: + command: + # Run discovery for Kubernetes. Use the following optional arguments: + # --namespaces: Comma separated list of namespaces to discover pods on + # --tls: Use secure (TLS) connection + # --port: Port used to connect to the kubelet. + # --host: Host used to connect to the kubelet. + exec: /var/db/newrelic-infra/nri-discovery-kubernetes + match: + image: /nginx/ + label.env: production + integrations: + - name: nri-nginx + env: + # Use the discovered IP as the host address + STATUS_URL: http://${discovery.ip}/server-status?auto + REMOTE_MONITORING: true + METRICS: 1 + ``` + + + +## Ajouter des propriétés de découverte [#define-discover] + +Pour configurer la découverte, configurez une entrée `discovery` dans votre configuration d’intégration YAML à l’aide des propriétés suivantes. Un conteneur sera mis en correspondance lorsque **all** les propriétés correspondent aux valeurs définies. + + + Les valeurs des propriétés seront mises en correspondance avec un **exact string**, sauf si la valeur à faire correspondre est définie entre `/.../`. Le contenu entre les barres obliques sera mis en correspondance en tant [qu'expressions régulières](https://en.wikipedia.org/wiki/Regular_expression). + + + + + + + + + + + + + + + + + + + + + + + + +
+ Nom de la clé de découverte + + Description +
+ `ttl` + + Type : chaîne + + Durée de vie des résultats de découverte mis en cache, utilisée pour minimiser le nombre de processus de découverte. Définir comme un nombre suivi d'une unité de temps (`s`, `m` ou `h`). + + Exemples : `30s`, `10m`, `1h`, `0` + + Par défaut : 1 m +
+ `docker` + + Type : propriétés YAML + + Définition de correspondance du conteneur Docker . Il s'agit d'une propriété `match` contenant une carte où : + + * Chaque clé correspond à l’une des propriétés suivantes. + + * La valeur est la valeur attendue de la propriété donnée pour le conteneur renvoyé. + + * Un conteneur correspond si toutes les propriétés correspondent (opération AND). + + Les clés YAML disponibles incluent : + + * `ip`: Adresse IP externe du conteneur, le cas échéant + + * `private.ip`: Adresse IP privée du conteneur + + * `port`: Numéro de port externe du conteneur + + * `private.port`:Numéro de port privé du conteneur + + * `image`: Nom de l&apos;image + + * `name`: Nom du conteneur + + * `label.
+ +### Exemple de découverte [#example] + +L'exemple suivant correspond à tous les conteneurs Docker dont l'image commence par `httpd:` (fournie en tant qu&apos;expressions régulières) et sont étiquetés comme `scrapable=yes`. Les résultats sont mis en cache avec une durée de vie de 5 minutes. + +``` +discovery: + ttl: 5m + docker: + match: + image: /^httpd:/ + label.scrapable: yes +``` + +## Informations sur les conteneurs disponibles [#container-information] + +Notre fonctionnalité de découverte émet actuellement les variables suivantes, qui peuvent être utilisées pour configurer votre intégration. L'agent infrastructure les remplace par les valeurs correspondantes du conteneur découvert. + + + Assurez-vous d'ajouter le préfixe `discovery.` . + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Variable + + Description +
+ `${discovery.ip}` + + Adresse IP publique du conteneur, le cas échéant +
+ `${discovery.private.ip}` + + Adresse IP privée du conteneur +
+ `${discovery.port}` + + Numéro de port public du conteneur +
+ `${discovery.private.port}` + + Numéro de port privé du conteneur +
+ `${discovery.image}` + + Nom de l'image +
+ `${discovery.name}` + + Nom du conteneur +
+ `${discovery.label. + N'importe quelle étiquette de conteneur, accessible par son nom +
+ +### modélisation de plusieurs ports + +Lorsqu'un conteneur expose de nombreux ports privés ou publics, ils sont accessibles via `discovery.private.ports.` ou `discovery.ports.` suivi d&apos;un index commençant par 0. Les ports sont indexés de la valeur de port privé la plus basse à la plus élevée. + +Par exemple, un conteneur qui expose les ports privés 80 et 443 via les ports publics 2345 et 1111, respectivement, fournirait les variables suivantes avec leurs valeurs respectives : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Variable + + Valeur +
+ `${discovery.private.ports.0}` + + `80` (le port privé le plus bas) +
+ `${discovery.private.ports.1}` + + `443` (le port privé le plus haut) +
+ `${discovery.ports.0}` + + `2345` (la modélisation du port public vers le port privé 0) +
+ `${discovery.ports.1}` + + `1111` (la modélisation du port public vers le port privé 1) +
+ `${discovery.private.port}` + + `80` (identique à `${discovery.private.ports.0}`) +
+ `${discovery.port}` + + `2345` (identique à `${discovery.ports.0}`) +
+ + + Notez que le mot `port` est singulier dans les variables non indexées et pluriel dans les variables indexées. + + +### Ports de modélisation par nom de protocole + +En plus de l'indexation de la section précédente, les ports peuvent également être référencés par leur nom de protocole (tel que `tcp`, `udp`, etc.). Par exemple, `${discovery.ports.tcp}` ou `${discovery.ports.udp}`. + +Si plusieurs ports correspondent au même protocole, ils peuvent également être indexés par les règles de la section précédente : `${discovery.ports.tcp.0}`, `${discovery.ports.tcp.1}`, etc. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/installation/install-infrastructure-host-integrations.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/installation/install-infrastructure-host-integrations.mdx new file mode 100644 index 00000000000..48f08021469 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/installation/install-infrastructure-host-integrations.mdx @@ -0,0 +1,171 @@ +--- +title: 'intégration sur hôte : Installation et configuration' +tags: + - Integrations + - On-host integrations + - Installation +metaDescription: Details about the New Relic on-host infrastructure integrations for third-party services that work in tandem with the infrastructure agent. +freshnessValidatedDate: never +translationType: machine +--- + +Certaines de nos [intégrations sur hôte](/docs/infrastructure/host-integrations/get-started/introduction-host-integrations) sont construites d&apos;une manière spécifique et étroitement liées à l&apos;agent infrastructure , ce qui signifie qu&apos;elles ont des processus d&apos;installation et configuration similaires. + +Cette documentation contient les procédures d'installation de base pour ces types d'intégration. Pour plus de détails techniques sur le fonctionnement de ces intégrations, voir [intégration sur hôte reporting des données](/docs/infrastructure/host-integrations/understand-use-data/host-integration-data-collection-reporting). + +## Méthodes d'installation [#install] + +Vos services peuvent être exécutés sur un seul hôte physique, sur une machine virtuelle ou dans un conteneur orchestré par Kubernetes ou Amazon ECS. Choisissez votre méthode d'installation souhaitée. + +Après avoir effectué l'installation de base d'une intégration, vous devez revenir à la documentation d'une intégration spécifique pour lire les instructions de configuration. + +### Environnements orchestrés [#orchestrated] + +Nos options pour les environnements conteneurisés et orchestrés : + +* Kubernetes[Installer l'intégration sur hôte sur Kubernetes](/docs/integrations/kubernetes-integration/link-apps-services/monitor-services-running-kubernetes) +* ECS[Installer l'intégration sur hôte sur Amazon ECS](/docs/integrations/host-integrations/host-integrations-list/monitor-services-running-amazon-ecs) (type lancement EC2) + +### Exécution sur des machines virtuelles ou des hôtes sur site [#standard] + +Choisissez votre scénario : + + + Installer à l'aide de fichiers MSI (Windows + } + > + Pour installer : + + 1. Si vous ne l'avez pas déjà, [installez l'agent d'infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic). + 2. Téléchargez la dernière image du programme d'installation .MSI pour l'intégration souhaitée [à partir de notre référentiel](https://download.newrelic.com/infrastructure_agent/windows/integrations/). + 3. Dans un compte administrateur, exécutez le script d’installation en utilisant un chemin absolu. + ``` + msiexec.exe /qn /i PATH\TO\integration-name.msi + ``` + 4. Revenez à la documentation de votre intégration et complétez les instructions de configuration. + + + Installer avec apt (Debian.webpDébian,ubuntu icon + } + > + Pour installer une intégration avec `apt`: + + 1. Si vous ne l’avez pas déjà, [installez l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic) pour votre système d’exploitation. + + 2. Depuis la ligne de commande, exécutez : + + ``` + sudo apt-get update + ``` + + 3. Exécutez la commande suivante, où `INTEGRATION_FILE_NAME` représente le nom du fichier d’intégration. Pour plus d&apos;informations, consultez la [documentation de l'intégration](/docs/integrations/host-integrations/host-integrations-list). + + ``` + sudo apt-get install INTEGRATION_FILE_NAME + ``` + + 4. Revenez à la documentation de votre intégration et complétez les instructions de configuration. + + + Installer avec yum (amazon linux.webpAmazon Linux,centos iconCentOS,redhat icon + } + > + Pour installer un package d’intégration avec `yum`: + + 1. Si vous ne l’avez pas déjà, [installez l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic) pour votre système d’exploitation. + + 2. Depuis la ligne de commande, exécutez : + + ``` + sudo yum -q makecache -y --disablerepo='*' --enablerepo='newrelic-infra' + ``` + + 3. Exécutez la commande suivante, où `INTEGRATION_FILE_NAME` représente le nom du fichier d’intégration. Pour plus d&apos;informations, consultez la [fiche spécifique intégration sur hôte](/docs/infrastructure/host-integrations/host-integrations-list). + + ``` + sudo yum install INTEGRATION_FILE_NAME + ``` + + 4. Revenez à la documentation de votre intégration et complétez les instructions de configuration. + + + Installer avec zypper (suse icon + } + > + Pour installer une intégration sur hôte avec zypper : + + 1. Si vous ne l’avez pas déjà, [installez l’agent d’infrastructure](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent-new-relic) pour votre système d’exploitation. + + 2. Depuis la ligne de commande, exécutez : + + ``` + sudo zypper -n ref -r newrelic-infra + ``` + + 3. Exécutez la commande suivante, où `INTEGRATION_FILE_NAME` représente le nom du fichier d’intégration. Pour plus d&apos;informations, consultez la [documentation de l'intégration](/docs/integrations/host-integrations/host-integrations-list). + + ``` + sudo zypper -n install INTEGRATION_FILE_NAME + ``` + + 4. Revenez à la documentation de votre intégration et complétez les instructions de configuration. + + + Installer à partir de tarball (Linux icon + } + > + + Nous vous recommandons [d'utiliser votre gestionnaire de paquets de distribution pour installer l'agent infrastructure ](/docs/infrastructure/install-configure-manage-infrastructure/linux-installation/install-infrastructure-linux-using-package-manager). Si vous choisissez d&apos;[installer manuellement l'agent](/docs/infrastructure/install-configure-manage-infrastructure/linux-installation/tarball-manual-install-infrastructure-linux), vous souhaiterez peut-être également installer l&apos;intégration sur hôte à partir des archives tar fournies. + + + Le processus d'installation manuelle n'est pas automatisé. Si vous optez pour une installation manuelle, vous devez placer les différents fichiers dans les bons dossiers, et vous assurer que l'agent dispose de toutes les autorisations pour exécuter l'intégration. + + Pour installer une intégration à partir d'une tarball: + + 1. Téléchargez le fichier d'intégration du package depuis le [tarball référentiel](https://download.newrelic.com/infrastructure_agent/binaries/linux/amd64/). + + 2. Décompressez le fichier tarball conformément à notre [structure de fichier d'intégration et à nos règles de placement](/docs/integrations/integrations-sdk/getting-started/integration-file-structure-activation), afin que l&apos;agent puisse trouver les définitions, la configuration et les exécutables de l&apos;intégration. + + 3. Placez le binaire qui contient le fichier de définition à l'intérieur `newrelic-integrations` ou `custom-integrations` dans le [répertoire de l'agent](/docs/infrastructure/install-configure-manage-infrastructure/linux-installation/tarball-manual-install-infrastructure-linux#agent-directory). + + 4. Placez le fichier de configuration de l'intégration sous le [répertoire du plugin](/docs/infrastructure/install-configure-manage-infrastructure/linux-installation/tarball-manual-install-infrastructure-linux#configure-plugin). + + 5. Revenez à la documentation de votre intégration et complétez les instructions de configuration. Si votre intégration nécessite l’utilisation de l’outil JMX, vous trouverez ci-dessous des détails à ce sujet. + + Pour les intégrations nécessitant notre outil `nrjmx` , suivez ces instructions supplémentaires : + + #### Utilisation de l'outil New Relic JMX [#nrjmx] + + Certaines intégrations (telles que [JMX](/docs/integrations/host-integrations/host-integrations-list/jmx-monitoring-integration), [Cassandra](/docs/integrations/host-integrations/host-integrations-list/cassandra-monitoring-integration) et [Kafka](/docs/integrations/host-integrations/host-integrations-list/kafka-monitoring-integration)) nécessitent l&apos;outil `nrjmx` . Si votre intégration en a besoin, téléchargez-le depuis [notre référentiel](https://download.newrelic.com/infrastructure_agent/binaries/linux/noarch/) et décompressez-le. + + + `nrjmx` nécessite Java 8 ou supérieur. + + + Pour l'intégration JMX version 2.3.3 ou supérieure et l'intégration Cassandra version 2.3.0 ou supérieure, l'outil `nrjmx` est inclus en tant que dépendance. Pour cette raison, lors de l&apos;utilisation d&apos;un gestionnaire de paquets, l&apos;outil `nrjmx` n&apos;a pas besoin d&apos;être installé manuellement. + + Si vous avez `nrjmx` déjà installé et installez `nri-jmx`, notre outil JMX conserve la version déjà installée. Si vous n&apos;avez pas déjà installé `nrjmx` , il obtient la dernière sortie `nrjmx` . + + Par défaut, l'emplacement `nrjmx` est `/usr/bin/nrjmx/*`. Pour installer dans un emplacement différent, définissez le nouveau chemin dans la variable d&apos;environnement `NR_JMX_TOOL` . + + + + + +## Mettre à jour l'agent [#upgrade] + +Pour maintenir intégration sur hôte à jour, suivez les procédures standards pour [mettre à jour le packageintégration sur hôte](/docs/infrastructure/host-integrations/installation/update-infrastructure-host-integration-package). + +## Détails techniques [#technical-details] + +Ces intégrations sont construites avec la même structure de fichier et la même structure configuration . Pour plus de détails sur leur structure et la manière dont ils rapportent les données, voir [Reporting des données](/docs/infrastructure/host-integrations/understand-use-data/host-integration-data-collection-reporting). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/infrastructure/host-integrations/installation/secrets-management.mdx b/src/i18n/content/fr/docs/infrastructure/host-integrations/installation/secrets-management.mdx new file mode 100644 index 00000000000..46d4713f9f3 --- /dev/null +++ b/src/i18n/content/fr/docs/infrastructure/host-integrations/installation/secrets-management.mdx @@ -0,0 +1,827 @@ +--- +title: Gestion des secrets +tags: + - Integrations + - On-host integrations + - Installation +metaDescription: Use secrets variables in your New Relic infrastructure integration configuration to inject sensitive data that you don’t want in your configuration files. +freshnessValidatedDate: never +translationType: machine +--- + +Avec la gestion des secrets, vous pouvez configurer l'agent et l'intégration sur l'hôte pour utiliser des données sensibles (telles que les mots de passe) sans avoir à les écrire en texte brut dans les fichiers configuration . Actuellement, Hashicorp Vault, AWS KMS, CyberArk, l'obfuscation CLI New Relic et les commandes personnalisées sont pris en charge. + +Apprenez-en plus dans cette vidéo NerdBytes (5:12 minutes). + +
- - You can [share your dashboard with your internal team](/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-internally) via a permalink. To share the dashboard with viewers outside your New Relic organization, you need to create publicly accessible live dashboard URLs and share them. This can be done using both the [UI](/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-externally/#dashboard) and [NerdGraph](/docs/apis/nerdgraph/examples/manage-live-dashboard-urls-via-api). When sharing the dashboard externally, you can set a time period for the shared dashboard URL to remain live. + + Vous pouvez [partager votre dashboard avec votre équipe interne](/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-internally) via un permalien. Pour partager le dashboard avec des spectateurs extérieurs à votre organisation New Relic, vous devez créer des URL dashboard en direct accessibles au public et les partager. Cela peut être fait en utilisant à la fois l&apos;[UI](/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-externally/#dashboard) et [NerdGraph](/docs/apis/nerdgraph/examples/manage-live-dashboard-urls-via-api). Lorsque vous partagez le dashboard en externe, vous pouvez définir une période pendant laquelle l&apos;URL dashboard partagé doit rester active. - Anyone with a live dashboard URL for an externally shared dashboard can view all the information on that dashboard. Share information carefully, adhering to your company's internal policies and procedures. + Toute personne disposant d'une URL dashboard en direct pour un dashboard partagé en externe peut afficher toutes les informations de ce dashboard. Partagez les informations avec précaution, en respectant les politiques et procédures internes de votre entreprise. - Inside a dashboard, click the 'metadata' button to access the **metadata** widget. There you can see the dashboard&apos;s entity GUID, account ID, account name, and manage all the tags added to the dashboard. + Dans un dashboard, cliquez sur le bouton 'métadonnées' pour accéder au widget **metadata**. Vous pouvez y voir dashboard l&apos;entité du GUID, l&apos;ID de compte, le nom du compte et gérer toutes les balises ajoutées au dashboard. Dashboards: See metadata @@ -80,7 +80,7 @@ Cliquez sur un dashboard pour ouvrir ses graphiques. Une page dashboard comprend - Inside a dashboard, click the 'tags' button to access the **tags** widget. There you can see the dashboard&apos;s account ID, account name, email of the person who created it, permissions, and the ID of the trusted account. + Dans un dashboard, cliquez sur le bouton « tag » pour accéder au widget **tags**. Vous pouvez y voir l&apos;ID de compte du dashboard, le nom du compte, l&apos;e-mail de la personne qui l&apos;a créé, les autorisations et l&apos;ID du compte de confiance. Dashboards: See tags diff --git a/src/i18n/content/fr/docs/query-your-data/explore-query-data/dashboards/prerequisites-to-share-dashboards-charts.mdx b/src/i18n/content/fr/docs/query-your-data/explore-query-data/dashboards/prerequisites-to-share-dashboards-charts.mdx new file mode 100644 index 00000000000..fcc1b987094 --- /dev/null +++ b/src/i18n/content/fr/docs/query-your-data/explore-query-data/dashboards/prerequisites-to-share-dashboards-charts.mdx @@ -0,0 +1,168 @@ +--- +title: Sécurité et accès pour le partage du dashboard et des graphiques +tags: + - Prerequisites to share dashboards and charts + - Prerequisites to share dashboards + - Prerequisites to share charts + - prerequisites + - Public dashboard + - Live URLs + - Public URLs + - Public sharing + - Public dashboard sharing + - Public chart sharing +metaDescription: Check the prerequisites for securely sharing dashboards and charts publicly. +freshnessValidatedDate: never +translationType: machine +--- + +Lorsque vous partagez des dashboards ou des graphiques publiquement via des URL en direct, vous exposez des données sensibles à des spectateurs externes. Il est donc essentiel de gérer soigneusement l'accès et les autorisations. Assurez-vous de disposer des configurations suivantes selon vos besoins pour partager en toute sécurité le dashboard et les graphiques. + +Chacune des personnes suivantes a des responsabilités spécifiques dans ce processus : + +* **Gestionnaire de domaine d'authentification**: contrôle l&apos;activation de la fonctionnalité au niveau du compte. +* **administrateur**: Configure les rôles et autorisations personnalisés pour que l&apos;utilisateur puisse gérer les URL en direct. + +## Renforcement des politiques [#policy-enablement] + +Pour partager le dashboard publiquement, le gestionnaire de domaine d’authentification doit vérifier et activer la politique **Live URL Creation** au niveau du compte. Ceci ne s’applique pas au partage de graphiques. Le gestionnaire de domaine d&apos;authentification peut vérifier l&apos;état de cette politique dans les comptes et l&apos;activer ou la désactiver uniquement via l&apos;API NerdGraph. + + + + En tant que gestionnaire de domaine d'authentification, vous pouvez vérifier l'état actuel de la politique **Live URL Creation** dans des comptes spécifiques. Utilisez l&apos;[explorateur d'API NerdGraph](https://one.newrelic.com/nerdgraph-graphiql) pour construire un [graphique appelé d'API](/docs/apis/nerdgraph/get-started/nerdgraph-explorer) comme suit. Remplacez `1, 2, 3` par les identifiants de compte réels. Si vous ne fournissez pas les identifiants de compte, l&apos;appel renvoie le statut de votre compte autorisé. Vous pouvez interroger jusqu&apos;à 100 comptes simultanément. + + ``` + { + actor { + dashboard { + liveUrlCreationPolicies(filter: { + accountIds: [1, 2, 3] + }) { + liveUrlCreationPolicies { + accountId + liveUrlCreationAllowed + } + } + } + } + } + + ``` + + Ceci est un exemple de réponse. + + ``` + { + { + "data": { + "actor": { + "dashboard": { + "liveUrlCreationPolicies": { + "liveUrlCreationPolicies": [ + { + "accountId": 1, + "liveUrlCreationAllowed": true + }, + { + "accountId": 2, + "liveUrlCreationAllowed": false + } + ] + } + } + } + } + } + + ``` + + + + En tant que gestionnaire de domaine d’authentification, vous pouvez activer ou désactiver la politique **Live URL Creation** dans des comptes spécifiques. Assurez-vous d&apos;avoir l&apos;autorisation pour ces comptes. Utilisez l&apos;[explorateur d'API NerdGraph](https://one.newrelic.com/nerdgraph-graphiql) pour construire un [graphique appelé d'API](/docs/apis/nerdgraph/get-started/nerdgraph-explorer) comme indiqué ici avec les modifications suivantes : + + * Remplacez `1, 2, 3` par les identifiants de compte réels. + * Définissez `liveUrlCreationAllowed` sur `true` pour activer la politique ou `false` pour la désactiver. + + Vous pouvez interroger jusqu'à 100 comptes simultanément. Chaque mise à jour réussie déclenche un événement d'audit pour l'ID de compte correspondant. + + ``` + mutation { + dashboardUpdateLiveUrlCreationPolicies( + policies: { + accountIds: [1,2], + liveUrlCreationAllowed: true} + ) { + liveUrlCreationPolicies { + accountId + liveUrlCreationAllowed + } + } + } + + ``` + + Ceci est un exemple de réponse. Si vous avez fourni un ID de compte inconnu, la réponse affichera le code d'erreur `UNAUTHORIZED` . + + ``` + { + "data": { + "dashboardUpdateLiveUrlCreationPolicies": { + "liveUrlCreationPolicies": [ + { + "accountId": 1, + "liveUrlCreationAllowed": true + }, + { + "accountId": 2, + "liveUrlCreationAllowed": true + } + ] + } + } + } + + ``` + + + +## Gestion des accès [#access-management] + +En tant qu'administrateur, procédez comme suit pour accorder l'accès à un utilisateur afin de [gérer les URL des dashboards et des graphiques en direct](/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-externally/#dashboard). Vérifiez auprès de l’utilisateur ses besoins spécifiques et effectuez la configuration en conséquence. Pour en savoir plus sur la gestion des utilisateurs, reportez-vous au [tutoriel de gestion des utilisateurs](/docs/accounts/accounts-billing/new-relic-one-user-management/account-user-mgmt-tutorial/). + + + + ### Ajouter des autorisations à un rôle personnalisé [#permissions-to-custom-role] + + [Créez un nouveau rôle personnalisé](/docs/accounts/accounts-billing/new-relic-one-user-management/account-user-mgmt-tutorial/#roles) avec les autorisations suivantes ou ajoutez-les à un rôle existant. Vérifiez auprès de l’utilisateur pour comprendre le niveau d’accès requis. + + * `Live Url (all)`:Accédez aux détails des URL en direct pour tous les utilisateurs. + + * `View`:Peut voir tous les détails de l&apos;URL en direct. + * `Delete`:Peut révoquer n&apos;importe quelle URL active. + + * `Live Url (individual)`:Accédez aux détails des URL en direct appartenant à l&apos;utilisateur. + + * `View`:Peut voir les détails de son propre URL en direct. + * `Modify`:Peut mettre à jour les propriétés des URL en direct. + * `Delete`:Peut révoquer ses propres URL en direct. + + + + ### Ajouter un rôle d'utilisateur et un compte à un groupe [#group-access] + + Pour du dashboard partage configuration, [créez un nouveau groupe](/docs/accounts/accounts-billing/new-relic-one-user-management/account-user-mgmt-tutorial/#group-access) ou gérez un groupe existant comme suit : + + 1. Accédez à **[Administration New Relic](https://one.newrelic.com/admin-portal) &gt; Access Management &gt; Groups**. + 2. Cliquez sur **Create a new group** ou sélectionnez **Manage group access** dans le menu déroulant. menu d&apos;un groupe existant. + 3. Pour un nouveau groupe, indiquez un nom et cliquez sur **Create group**. Le volet **Admin** du groupe s’ouvre. + 4. Sous **Members**, ajoutez l’utilisateur. + 5. Sous **Account access**, associez le rôle personnalisé au compte souhaité pour le partage dashboard . + 6. Si le dashboard provient de plusieurs comptes, sous **Account access**, incluez le rôle personnalisé pour chaque compte concerné au sein du groupe. + + + Assurez-vous que les capacités de partage sont définies pour toutes les requêtes de comptes dans le dashboard. + + + + +Pour savoir comment créer et gérer des URL actives, reportez-vous à [Partager des dashboards et des graphiques publiquement](/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-externally/#dashboard). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-externally.mdx b/src/i18n/content/fr/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-externally.mdx new file mode 100644 index 00000000000..566e844bf57 --- /dev/null +++ b/src/i18n/content/fr/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-externally.mdx @@ -0,0 +1,263 @@ +--- +title: Partager le dashboard et les graphiques publiquement +tags: + - Share dashboards publicly + - Share charts publicly + - Share dashboards externally + - Share charts externally + - Public dashboards + - Dashboards +metaDescription: Share dashboards and charts publicly. +freshnessValidatedDate: never +translationType: machine +--- + +Dans New Relic, vous pouvez partager des dashboards et des graphiques avec des utilisateurs extérieurs à votre organisation, même s'ils n'ont pas de compte New Relic. Cette fonctionnalité élargit l'audience de vos informations détaillées tout en maintenant les contrôles de sécurité et les capacités d'audit. Le dashboard et les graphiques partagés sont accessibles via des URL en direct accessibles au public que vous créez à partir de la plateforme New Relic. + +Lorsqu'un utilisateur externe accède au dashboard ou aux graphiques partagés, la page s'affiche avec les mêmes données et visualisations que l'entité d'origine, avec les fonctionnalités interactives suivantes : + +* **Plage de temps**: les spectateurs peuvent choisir la plage de temps dans une liste déroulante pour voir les données pour une période spécifique. +* **Mode d'affichage**: les spectateurs peuvent sélectionner le mode clair ou sombre selon leurs préférences. +* **Mode TV**: Les téléspectateurs peuvent activer un mode TV plein écran qui optimise le dashboard pour l&apos;affichage sur un écran de télévision. + +Alors que la fonctionnalité de partage de graphiques est disponible pour les clients Calculer **Pro**, **Enterprise** et **Core Compute** , la fonctionnalité de partage dashboard est disponible uniquement pour les clients **[Advanced Compute](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/add-on-billing)** . Pour en savoir plus sur les coûts associés et les pratiques de gestion de la fonctionnalité de partage de dashboard, reportez-vous à la section [Tarification](#public-dashboard-pricing) . + +Toute personne disposant des URL dashboard ou du graphique en direct peut afficher toutes les informations du dashboard ou du graphique. Partagez les informations avec soin et conformément aux politiques et procédures internes de votre entreprise. + +## Prérequis [#prerequisites-public-dashboard] + +Cette fonctionnalité comprend plusieurs couches et conditions de sécurité pour garantir un partage de données contrôlé et sécurisé. Pour partager un dashboard ou des graphiques publiquement, assurez-vous que la configuration suivante est en place. Reportez-vous à la section [Sécurité et gestion des accès](/docs/query-your-data/explore-query-data/dashboards/prerequisites-to-share-dashboards-charts) pour plus de détails sur la configuration : + +* L'autorisation `Live URL control` est activée pour tous les comptes approvisionnant le dashboard. +* Le rôle et les autorisations personnalisés sont configurés pour vous permettre de partager le dashboard et les graphiques. +* Les comptes à l'origine du dashboard ou du graphique disposent d'autorisations pour que votre rôle puisse partager des données en externe. +* Vous avez accès à tous les comptes alimentant le dashboard ou le graphique. +* Vous êtes le propriétaire du dashboard ou du graphique que vous souhaitez partager. +* L'[autorisation dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/#dashboards-permissions)n&apos;est pas définie sur **Private**. + + + + Partagez votre dashboard\ + Partagez votre graphique + + + + + ## Partagez votre dashboard [#share-dashboard] + + Vous pouvez partager votre dashboard en générant une URL de dashboard en direct et en gérant sa durée d'expiration. De plus, vous pouvez consulter la liste des URL générées avec des détails et les révoquer à tout moment depuis la plateforme New Relic. Pour garantir la sécurité et la conformité, monitorez la piste d'audit pour la création, la mise à jour ou la révocation des URL dashboard partagées. + + Vous pouvez créer et gérer des URL dashboard en direct via l'**UI** et l&apos;[API NerdGraph](/docs/apis/nerdgraph/examples/manage-live-dashboard-urls-via-api). + + + + Pour créer une URL en direct accessible au public pour votre dashboard: + + 1. Allez à **[one.newrelic.com > Dashboards](https://one.newrelic.com/dashboards)**. + + 2. Ouvrez le dashboard que vous souhaitez partager. + + 3. Dans le coin supérieur droit, cliquez sur l’icône **Share** . + + 4. Sélectionnez **Share dashboard**. Un message de confirmation s&apos;affiche pour accuser réception des éléments suivants : + + * Le dashboard ne contient pas d'informations sensibles. + * L'accès à ce dashboard partagé à partir de l'URL en direct à chaque fois peut consommer votre CCU. + + 5. Cliquez sur **Continue**. La boîte de dialogue **Share dashboard** apparaît. + + 6. Attribuez une durée à laquelle l’URL doit être active. L'URL expire après la durée spécifiée. + + 7. Cliquez sur **Save changes**. Une notification apparaît concernant la création réussie de l&apos;URL et elle est copiée dans votre presse-papiers. + + 8. Pour afficher la page dashboard partagé, cliquez sur la notification ou accédez-y manuellement dans un nouvel onglet avec l'URL copiée. + + + Toutes les mises à jour de contenu apportées au dashboard actuel sur la plateforme New Relic sont automatiquement reflétées sur la page dashboard partagé. Pour éviter toute exposition accidentelle des données, seul le propriétaire dashboard peut mettre à jour un dashboard partagé publiquement. + + + + + Assurez-vous que vous disposez des [autorisations](/docs/query-your-data/explore-query-data/dashboards/prerequisites-to-share-dashboards-charts/#permissions-to-custom-role) nécessaires et que vous êtes le propriétaire du dashboard pour mettre à jour les propriétés (durée de vie) du dashboard partagé. + + 1. Allez à **[one.newrelic.com > Dashboards](https://one.newrelic.com/dashboards)**. + 2. Ouvrez le dashboard que vous partagez. + 3. Cliquez sur l'icône **Share** . + 4. Sélectionnez **Manage public link**. La boîte de dialogue **Share dashboard** apparaît. + 5. Mettez à jour la durée à partir de la liste déroulante **Link expiration** . L&apos;option **Never expires** maintient l&apos;URL active pendant 30 ans. + 6. Cliquez sur **Save changes**. + + + + Vous pouvez accéder aux noms de dashboard partagés hyperliés à leurs URL actives, le tout au même endroit sur New Relic One. En fonction de vos [autorisations](/docs/query-your-data/explore-query-data/dashboards/prerequisites-to-share-dashboards-charts/#permissions-to-custom-role), vous pouvez visualiser soit les URL que vous avez créées, soit celles créées par tous les utilisateurs du compte. + + Pour afficher les liens dashboard partagé : + + 1. Allez à **[one.newrelic.com](https://one.newrelic.com)**. + 2. Dans la navigation de gauche, cliquez sur votre nom en bas. + 3. Accédez à **Administration > Shared Dashboards**. La page Dashboards partagés fournit une liste des dashboards partagés, y compris leurs dates de création et d&apos;expiration, ainsi que le propriétaire de chaque dashboard. + + Vous pouvez cliquer sur les noms dashboard pour ouvrir les pages de partage dans un nouvel onglet. + + + + En fonction de vos [permissions](/docs/query-your-data/explore-query-data/dashboards/prerequisites-to-share-dashboards-charts/#permissions-to-custom-role), vous pouvez révoquer soit les liens que vous avez créés, soit ceux créés par tous les utilisateurs du compte. Vous pouvez le faire de la manière suivante : + + * Sur le dashboard que vous partagez, cliquez sur l’icône **Share** et sélectionnez **Manage public link**. Dans la boîte de dialogue **Share dashboard** , sélectionnez **Revoke public link**. + * Depuis la page **[Shared Dashboards](#view-dashboard-links)**, sélectionnez le icône pour le lien dashboard et cliquez sur **Revoke**. + + + Seul le propriétaire peut supprimer un dashboard avec un lien partagé publiquement. La suppression du dashboard révoque automatiquement le lien de partage public. Si vous restaurez le dashboard, vous devez créer une nouvelle URL en direct. + + + + + La création, la mise à jour ou la révocation d'URL dashboard partagées génère une piste d'audit dans [NrAuditEvent](https://docs.newrelic.com/docs/accounts/accounts/account-maintenance/query-account-audit-logs-nrauditevent/). Pour afficher les enregistrements dans le générateur de requêtes : + + 1. Allez à **[one.newrelic.com > Query Your Data](https://one.newrelic.com/nr1-core)**. + 2. Sélectionnez le compte à partir duquel les liens dashboard public sont créés. + 3. Exécutez l’une des requêtes suivantes pour afficher les pistes d’audit : + + + + Pour obtenir les détails des URL dashboard en direct créées ou révoquées au cours de la dernière heure, exécutez la requête suivante : + + ```sql + FROM NrAuditEvent + SELECT * + WHERE actionIdentifier LIKE '%public_dashboard.%' + ``` + + + + Pour obtenir les détails des URL dashboard en direct créées au cours de la dernière heure, exécutez la requête suivante : + + ```sql + FROM NrAuditEvent + SELECT * + WHERE actionIdentifier LIKE '%public_dashboard.create%' + ``` + + + + Pour obtenir les détails des URL dashboard en direct révoquées au cours de la dernière heure, exécutez la requête suivante : + + ```sql + FROM NrAuditEvent + SELECT * + WHERE actionIdentifier LIKE '%public_dashboard.revoke%' + ``` + + + + Pour obtenir les détails des URL dashboard en direct créées par un utilisateur spécifique au cours de la dernière heure, remplacez `` par l&apos;ID de messagerie électronique réel de l&apos;utilisateur et exécutez la requête suivante : + + ```sql + FROM NrAuditEvent + SELECT * + WHERE actionIdentifier LIKE '%public_dashboard%' + AND actorType='user' + AND actorEmail= + ``` + + + + Pour obtenir les détails des URL de dashboard en direct créées dans un compte au cours de la dernière heure, remplacez `` par l&apos;ID de compte réel et exécutez la requête suivante : + + ```sql + FROM NrAuditEvent + SELECT * + WHERE actionIdentifier LIKE '%public_dashboard%' + AND scopeType='account' + AND scopeId= + ``` + + + + Pour obtenir la liste des dashboards à partir desquels les URL en direct sont créées au cours d'une période spécifique, exécutez la requête suivante. Il affiche le nombre d'URL créées pour chaque dashboard. + + + L'exemple de requête suivant récupère les enregistrements de la semaine dernière. Vous pouvez ajuster la période selon vos besoins. + + + ```sql + WITH aparse(description, '%for dashboard *') AS dashboardGUID + FROM NrAuditEvent + SELECT count(*) AS 'dashboards' + WHERE actionIdentifier LIKE '%public_dashboard.create%' + FACET dashboardGUID + SINCE 1 week ago + ``` + + + + Pour obtenir la liste des opérations effectuées avec les URL dashboard en direct au cours d’une période spécifique, exécutez la requête suivante. + + + L'exemple de requête suivant récupère les enregistrements de la semaine dernière. Vous pouvez ajuster la période et la facette selon vos besoins. + + + ```sql + WITH aparse(description, '%for dashboard *') AS dashboardGUID, + aparse(actionIdentifier, '%public_dashboard.*') AS publicDashOperation + FROM NrAuditEvent + SELECT uniqueCount(actionIdentifier) AS 'number of operations' + WHERE publicDashOperation IS NOT NULL + FACET actorEmail, dashboardGUID, publicDashOperation + SINCE 1 week ago + ``` + + + + + + Lorsque vous utilisez des URL dashboard en direct, il est important de comprendre les coûts associés et comment les gérer efficacement. **Public Dashboards** est une fonctionnalité du produit Advanced Compute proposée en tant que [module complémentaire](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/add-on-billing) ou dans le cadre du modèle de tarification Compute. [Les CCU](/docs/licenses/license-information/product-definitions/new-relic-one-pricing-definitions/#compute-capacity-unit) avancés sont consommés lorsque des requêtes sont exécutées à partir des visualisations dashboard , ce qui se produit dans les cas suivants : + + * Au chargement de la page + * On sélecteur d'intervalle de temps change + * À propos des déclencheurs de taux de rafraîchissement + + Vous pouvez monitorer vos coûts d'utilisation depuis **[New Relic Administration](https://one.newrelic.com/admin-portal) &gt; Compute Management &gt; Advanced capabilities**. + + ### Pratiques de gestion des coûts + + Pour maintenir une tarification optimale, tenez compte des pratiques standard suivantes : + + * [**Contrôle d'accès**](/docs/query-your-data/explore-query-data/dashboards/prerequisites-to-share-dashboards-charts): gérez qui peut créer, modifier ou supprimer des liens au niveau du compte et du rôle d&apos;utilisateur. Cela permet de contrôler et d’empêcher l’utilisateur d’avoir un accès excessif à ces fonctionnalités. + + * [**Gestion de l'expiration des liens**](/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-externally/#update-live-url): définissez des délais d&apos;expiration pour les liens afin de garantir qu&apos;ils ne sont visibles que pendant une certaine période, réduisant ainsi la surutilisation potentielle. + + * **Gestion des widgets**: + + * Ajoutez ou supprimez un widget de votre dashboard interne pour optimiser les données interrogées. + * Mettre à jour le widget pour ignorer les changements du sélecteur d'intervalle de temps, empêchant ainsi les requêtes supplémentaires lorsque l'utilisateur ajuste la plage de temps. + * Gérez le taux de rafraîchissement de chaque widget pour éviter les actualisations automatiques, en fonction de vos préférences dashboard interne. Pour plus de détails, reportez-vous à [Personnaliser les taux de rafraîchissement des graphiques](/docs/query-your-data/explore-query-data/use-charts/chart-refresh-rates/#customize-chart-refresh). + + + + ### Limites + + Voici les limites du partage public du dashboard : + + * Lorsque vous consultez un dashboard partagé dans **TV mode**, il reste actif jusqu&apos;à 72 heures. Le spectateur doit actualiser le navigateur pour continuer à visionner. + * Si vous partagez un dashboard avec un widget qui utilise des variables de modèle, des liens de facettes, des visualisations personnalisées ou des tables log , ces widgets n'afficheront aucune information dans la vue partagée. + * Si le paramètre d'autorisation du dashboard est **Private**, vous ne pouvez pas partager le dashboard publiquement. Pour vérifier cela, accédez à **[one.newrelic.com > Dashboards](https://one.newrelic.com/dashboards)** &gt; votre dashboard &gt; icône &gt; **Settings > Permissions**. + + + + ## Partagez votre graphique [#share-chart-externally] + + Pour partager un graphique avec un utilisateur externe, assurez-vous d'avoir effectué toutes les étapes de configuration décrites dans les [conditions préalables](#prerequisites-public-dashboard). Pour générer un lien partageable pour votre graphique : + + 1. Allez à **[one.newrelic.com > Dashboards](https://one.newrelic.com/dashboards)**. + 2. Ouvrez le dashboard dans lequel le graphique est disponible. + 3. Dans le coin supérieur droit du graphique, cliquez sur le icône. + 4. Sélectionnez **Get chart link**. Une notification apparaît confirmant la création réussie du lien public, qui est également copié dans votre presse-papiers. + 5. Pour ouvrir la page du graphique en direct, cliquez sur la notification ou parcourez-la manuellement dans un nouvel onglet avec l'URL copiée. + + + + + + Vous pouvez intégrer les URL du graphique en direct et dashboard dans n'importe quel iframe. + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-internally.mdx b/src/i18n/content/fr/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-internally.mdx new file mode 100644 index 00000000000..95428709cd2 --- /dev/null +++ b/src/i18n/content/fr/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-internally.mdx @@ -0,0 +1,37 @@ +--- +title: Partager le dashboard et les graphiques en interne +tags: + - Share dashboards internally + - Share charts internally + - Internal sharing + - Dashboards + - Charts +metaDescription: Share dashboards and charts within the team. +freshnessValidatedDate: '2025-01-16T00:00:00.000Z' +translationType: machine +--- + +## Partagez votre dashboard en interne [#share-dashboards-internally] + +Vous pouvez partager n’importe quel dashboard au sein de votre équipe en utilisant l’une des options suivantes : + +* Copiez le permalien du dashboard en cliquant sur l'icône de lien en haut à droite d'un dashboard. permalien partager un lien direct vers le dashboard. + +Ou + +* Copiez votre dashboard au format **JSON** comme suit et partagez-le au sein de votre équipe. + + 1. Allez à **[one.newrelic.com > Dashboards](https://one.newrelic.com/dashboards)**. + 2. Cliquez sur le icône dans le coin supérieur droit du dashboard. + 3. Sélectionnez **Copy JSON to clipboard**. + 4. Collez le code JSON dans un message ou un document pour le partager avec votre équipe. + +## Partagez vos graphiques en interne [#share-charts-internally] + +Similairement au dashboard, vous pouvez partager des graphiques au sein de votre équipe en suivant ces étapes : + +1. Allez à **[one.newrelic.com > Dashboards](https://one.newrelic.com//dashboards)**. +2. Ouvrez le dashboard contenant le graphique que vous souhaitez partager. +3. Sélectionnez **View query** dans le menu du graphique. La requête s&apos;ouvre dans le générateur de requêtes. +4. Dans le générateur de requêtes, cliquez sur **Copy query link**. Le lien est copié dans votre presse-papiers. +5. Partagez-le avec les membres de votre équipe par e-mail, chat ou tout autre outil de communication. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/query-your-data/explore-query-data/query-builder/introduction-new-data-explorer.mdx b/src/i18n/content/fr/docs/query-your-data/explore-query-data/query-builder/introduction-new-data-explorer.mdx new file mode 100644 index 00000000000..a02640def7a --- /dev/null +++ b/src/i18n/content/fr/docs/query-your-data/explore-query-data/query-builder/introduction-new-data-explorer.mdx @@ -0,0 +1,58 @@ +--- +title: Introduction à l'explorateur de données +tags: + - Query your data + - Explore and query data + - Data explorer +metaDescription: The New Relic data explorer lets you run queries of your data without using NRQL-format queries +freshnessValidatedDate: never +translationType: machine +--- + +Vous pouvez désormais explorer toutes vos données visuellement à l'aide de **query experience data explorer** sans avoir besoin de savoir comment écrire [une requête au format NRQL](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-new-relics-query-language). + +Besoin d'effectuer une recherche plus détaillée ? Découvrez comment [interroger vos données](/docs/query-your-data/explore-query-data/get-started/introduction-querying-new-relic-data/). Si vous ne l&apos;avez pas déjà fait, créez votre compte New Relic gratuit pour commencer monitoring vos données dès aujourd&apos;hui. + +## Importance de l'explorateur de données [#importance-of-data-explorer] + +Recherchez-vous l'état de votre système ? Avez-vous besoin de planifier des ressources, d’identifier et de répondre à un incident ou de résoudre des comportements défectueux ? L'explorateur de données permet d'identifier, de récupérer et de visualiser facilement les données que vous recherchez grâce à des menus visuels, sans jamais utiliser NRQL ni créer de requête. + +Avec le **data explorer**, vous pouvez accéder à toutes les données stockées dans la base de données New Relic (NRDB) de manière rapide et intuitive. Vous pouvez ensuite sélectionner la facette de votre requête à l&apos;aide d&apos;un attribut et filtrer jusqu&apos;à la valeur requise. + +Autres choses que la vue de l'explorateur de données vous aide à faire : + +* Visualisez les données sous différents angles : des données brutes à diverses visualisations qui donnent des informations détaillées sur l'évolution, la distribution, etc. +* Explorez les données en détail à l'aide de filtres. +* Affichez une prédiction basée sur la tendance de vos données (disponible avec l'aperçu public de [NRQL Predictions](/docs/query-your-data/explore-query-data/use-charts/nrql-predictions)). +* Ajoutez vos recherches à un dashboard. +* Comprendre le fonctionnement NRQL : l'explorateur de données génère automatiquement la requête NRQL en fonction de vos sélections. + +### Types de données que vous pouvez explorer [#types-of-data] + +Voici les types de données que vous pouvez explorer à l’aide de la vue **Data Explorer** : + +* [Métriques dimensionnelles](/docs/data-apis/understand-data/new-relic-data-types/#dimensional-metrics) (le type de données métrique). +* [événement](/docs/data-apis/understand-data/new-relic-data-types/#events-new-relic) (le type de données événement). +* [log](/docs/logs/ui-data/use-logs-ui) (le type de données du log). + +## Explorez vos données [#explore-your-data] + +Pour accéder à l’explorateur de données, accédez à la barre **Query your data** inférieure et cliquez sur l’icône **Data Explorer** . + +### Utiliser l'explorateur de données [#use-data-explorer] + +* **Définir la portée**: Sélectionnez le type de données (métrique, événement ou log), le compte et l&apos;entité. +* **Select the Time Range**: Utilisez le sélecteur d&apos;intervalle de temps pour définir la plage horaire de votre requête. +* **Construisez votre recherche**: Utilisez les blocs sur la gauche pour parcourir les données disponibles et construire votre recherche. Les blocs sont consultables et vous pouvez utiliser les actions du menu d&apos;actions pour créer et mettre à jour votre requête. +* **Affinez votre requête**: modifiez votre requête en ajoutant des filtres, des facettes et des agrégations. +* **Personnalisez la visualisation du graphique**: mettez à niveau votre visualisation du graphique à partir des options de personnalisation disponibles. +* **Ajouter une prédiction à un graphique linéaire ou à aires (disponible avec l'aperçu public des [prédictions NRQL](/docs/query-your-data/explore-query-data/use-charts/nrql-predictions))**: utilisez **Predict trend** dans le menu **Options** pour obtenir une tendance prédite. +* **Ajouter au dashboard**: ajoutez votre graphique à un dashboard pour référence ultérieure. + +Data explorer view + +### Composants de l'explorateur de données [#data-explorer-components] + +* **Sélectionnez votre type de données**: Choisissez entre métriques, événement, log et comptes. Si vous sélectionnez des métriques, vous pouvez filtrer par entité. +* **Zone de navigation des données**: Située à gauche, cette zone vous permet de naviguer dans les données en cliquant sur les différentes valeurs affichées à l&apos;écran ou de voir les actions possibles en cliquant sur le menu d&apos;action à 3 points. +* **Espace de travail**: Cette zone affiche les résultats de vos sélections. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/query-your-data/explore-query-data/use-charts/nrql-predictions.mdx b/src/i18n/content/fr/docs/query-your-data/explore-query-data/use-charts/nrql-predictions.mdx new file mode 100644 index 00000000000..e990b8d1c9d --- /dev/null +++ b/src/i18n/content/fr/docs/query-your-data/explore-query-data/use-charts/nrql-predictions.mdx @@ -0,0 +1,142 @@ +--- +title: Prévisions NRQL +tags: + - Prediction on a chart + - Forecasting on a chart + - NRQL Predictions + - Forecasting +metaDescription: Use NRQL Predictions to predict future trends and potential performance issues. +freshnessValidatedDate: never +translationType: machine +--- + + + Nous travaillons toujours sur cette fonctionnalité, mais nous aimerions que vous l'essayiez ! + + Cette fonctionnalité est actuellement fournie dans le cadre d'un programme d'aperçu conformément à nos [politiques de pré-sortie](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy). + + +**NRQL Predictions** dans New Relic utilise des données historiques pour prédire les tendances futures, fournissant des informations détaillées sur la manière dont les métriques pourraient se comporter dans le futur. Cette approche proactive vous aide à visualiser les tendances et à anticiper les problèmes potentiels, permettant des interventions rapides pour maintenir des performances optimales du système. Bien que **NRQL Predictions** n’identifie pas lui-même les problèmes potentiels, il vous fournit les informations nécessaires pour évaluer les tendances et planifier les défis futurs. + +Pour l'identification automatique des problèmes potentiels, vous pouvez vous inscrire à la fonctionnalité **[Predictive Alerts](/docs/query-your-data/explore-query-data/use-charts/nrql-predictions)** , actuellement disponible en version préliminaire publique. **Predictive Alerts** fonctionne aux côtés de **NRQL Predictions** pour déclencher automatiquement des alertes lorsque les tendances projetées indiquent un problème potentiel, permettant une gestion proactive de votre système. + + + New Relic utilise actuellement le [modèle Holt-Winters](https://en.wikipedia.org/wiki/Exponential_smoothing#Triple_exponential_smoothing_\(Holt_Winters\)) pour la prédiction, qui prend en charge les modèles et tendances saisonniers horaires, quotidiens et hebdomadaires dans vos données. + + +## Tarifs [#pricing] + +Votre utilisation de **NRQL Predictions** est facturable pendant l&apos;aperçu conformément à votre commande, conformément au modèle de tarification associé à votre compte. Les requêtes de langage New Relic (NRQLS) liées à l&apos;utilisation de cette fonctionnalité sont facturables en tant que produit Core calculer. Si cette fonctionnalité devient généralement disponible, votre utilisation sera facturable conformément à votre commande. + +Pour plus de détails sur les prix, veuillez contacter notre équipe commerciale ou vous référer à votre commande. + +## Inscription [#enrollment] + +Pour vous inscrire à la fonctionnalité **NRQL Predictions** , accédez à **[one.newrelic.com > Administration](https://one.newrelic.com//admin-portal) &gt; Preview &amp; Trials** et activez **NRQL predictions**. + +## Ajouter une prédiction sur un graphique linéaire ou à aires [#add-prediction] + +Pour ajouter une prédiction sur un graphique linéaire ou à aires, procédez comme suit : + + + + ### Accéder à un graphique linéaire ou à aires [#access-a-chart] + + 1. Accédez à [one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities). + 2. Pour ajouter une prédiction à un graphique linéaire ou à aires, sélectionnez-le à partir de **Dashboards** ou ouvrez-le à partir de **Metrics and events**. + + + + ### Ajouter une prédiction [#add-prediction] + + Pour ajouter une prédiction, à partir de la menu, sélectionnez **Predict trend**. Dans **Data Explorer**, la tendance de prédiction apparaît sur le graphique, projetant les tendances futures. La plage de prédiction est automatiquement définie sur 20 % de la fenêtre de requête et surlignée en gris. Le graphique apparaît en lignes pointillées dans la plage prédite. + + Le mot clé `PREDICT` est ajouté à la requête du graphique. Vous pouvez [affiner la requête](#customize-prediction-range) en fonction de vos besoins et l&apos;exécuter pour obtenir la tendance mise à jour. + + + Lorsque vous ajoutez une prédiction à un graphique en aires, le type de graphique devient un graphique linéaire avec prédiction. + + + + + ### Ajouter au dashboard [#add-to-dashboard] + + 1. Pour ajouter le graphique avec prédiction à un dashboard, cliquez sur **Add to dashboard**. + 2. Entrez un nom de widget. + 3. Sélectionnez un dashboard dans lequel vous souhaitez ajouter le widget ou créez un nouveau dashboard pour celui-ci. + + Vous pouvez maintenant visualiser le graphique avec prédiction sur le dashboard sélectionné. + + + +## Plage de prédiction par défaut [#default-prediction-range] + +Lorsque vous ajoutez une prédiction à un graphique, la fonction `PREDICT` s&apos;ajoute à la requête de graphique existante avec les comportements par défaut suivants. + +* **Plage de prédiction**: Projette 20 % du temps total spécifié dans votre fenêtre de requête, vous permettant de voir une projection à court terme basée sur les tendances actuelles. +* **données historiques**: Traite les données historiques de la fenêtre de requête actuelle et des deux précédentes pour générer des prédictions. +* **Intervalle de temps**: correspond à l&apos;intervalle de points de données de la prédiction sur la fenêtre de requête, garantissant la cohérence dans la projection des données. + +Exemple: + +```sql +FROM Transaction SELECT count(*) WHERE error IS TRUE TIMESERIES PREDICT +``` + +La prédiction par défaut sur le graphique apparaît comme suit : + +default prediction + +
+ **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; dashboards**: prédiction par défaut. +
+ +## Personnaliser la plage de prédiction [#customize-prediction-range] + +Vous pouvez personnaliser la prédiction des manières suivantes. Pour vous familiariser avec NRQL, reportez-vous à [la documentation NRQL](/docs/nrql/get-started/introduction-nrql-new-relics-query-language). + + + + Comme **Holt-Winters** est le seul modèle de prédiction que nous prenons actuellement en charge, vous pouvez affiner le modèle de prédiction en fonction de votre cas d&apos;utilisation en ajustant les hyperparamètres et ses facteurs de lissage avec `holtwinters`. + + Utilisez les hyperparamètres suivants pour personnaliser la prédiction : + + * **`seasonality`**: Représente la longueur du modèle saisonnier dans la série chronologique. + + * **`seasonality: + + + Vous pouvez personnaliser la requête en projetant la prédiction jusqu'à une plage horaire spécifiée. Utilisez le mot-clé `BY` pour projeter la prédiction jusqu&apos;à la plage horaire spécifiée. Par exemple, `PREDICT BY 3 hours`. + + + + Vous pouvez personnaliser la requête en traitant les données historiques de la plage de temps définie pour projeter la prédiction. Utilisez le mot-clé `USING` pour traiter les données historiques. Par exemple, `PREDICT USING 1 day`. + + + +Exemple: + +```sql +FROM Transaction SELECT count(*) WHERE error IS TRUE TIMESERIES PREDICT holtwinters(beta: 0.5) BY 3 hours USING 1 day +``` + +La prédiction personnalisée sur le graphique apparaît comme suit : + +Refined prediction + +
+ **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; dashboards**: prédiction personnalisée. +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/query-your-data/explore-query-data/use-charts/use-your-charts.mdx b/src/i18n/content/fr/docs/query-your-data/explore-query-data/use-charts/use-your-charts.mdx index 825231c5bbd..0a4a1d5144f 100644 --- a/src/i18n/content/fr/docs/query-your-data/explore-query-data/use-charts/use-your-charts.mdx +++ b/src/i18n/content/fr/docs/query-your-data/explore-query-data/use-charts/use-your-charts.mdx @@ -67,7 +67,7 @@ Lisez les sections ci-dessous pour en savoir plus sur la fonctionnalité de pers Allez à **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; Query your data**. Ceci est un exemple de requête permettant de sélectionner un format de données. - For numbers, select if you want us to auto-format them, or choose the number of decimals you want to see. + Pour les nombres, sélectionnez si vous souhaitez que nous les formations automatiquement ou choisissez le nombre de décimales que vous souhaitez voir. Data format: Auto-format @@ -225,9 +225,9 @@ Pour plus de fonctionnalités spécifiques au type de graphique, voir [Types de ## Options de partage et d'affichage des graphiques [#share-charts] -Most charts have various options, including a chart-embed option, getting a chart as an image, and adding a chart to a dashboard. See [Import, export, and add dashboards and charts](/docs/query-your-data/explore-query-data/dashboards/dashboards-charts-import-export-data/). To share a chart within your team, see [Share dashboards and charts internally](/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-internally/#share-charts-internally). To share a chart externally, see [Share dashboards and charts publicly](/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-externally/#chart). +La plupart des graphiques disposent de diverses options, notamment une option d'intégration de graphique, l'obtention d'un graphique sous forme d'image et l'ajout d'un graphique à un dashboard. Voir [Importer, exporter et ajouter des dashboards et des graphiques](/docs/query-your-data/explore-query-data/dashboards/dashboards-charts-import-export-data/). Pour partager un graphique au sein de votre équipe, consultez [Partager le dashboard et les graphiques en interne](/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-internally/#share-charts-internally). Pour partager un graphique en externe, consultez [Partager le dashboard et les graphiques publiquement](/docs/query-your-data/explore-query-data/dashboards/share-charts-dashboards-externally/#chart). -## Chart with a predicted trend [#chart-forecasted-trend] +## Graphique avec une tendance prévue [#chart-forecasted-trend] Nous travaillons toujours sur cette fonctionnalité, mais nous aimerions que vous l'essayiez ! @@ -235,7 +235,7 @@ Most charts have various options, including a chart-embed option, getting a char Cette fonctionnalité est actuellement fournie dans le cadre d'un programme d'aperçu conformément à nos [politiques de pré-sortie](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy). -If you are enrolled in [NRQL Predictions](/docs/query-your-data/explore-query-data/use-charts/nrql-predictions), you can create predictions on line and area charts to project future trends based on historical data. +Si vous êtes inscrit à [NRQL Predictions](/docs/query-your-data/explore-query-data/use-charts/nrql-predictions), vous pouvez créer des prévisions sur des graphiques linéaires et surfaciques pour projeter les tendances futures en fonction des données historiques. ## Utiliser une bibliothèque de graphiques open source [#victory-charts] diff --git a/src/i18n/content/fr/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/compatibility-requirement-lambda-monitoring.mdx b/src/i18n/content/fr/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/compatibility-requirement-lambda-monitoring.mdx new file mode 100644 index 00000000000..5663523c54c --- /dev/null +++ b/src/i18n/content/fr/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/compatibility-requirement-lambda-monitoring.mdx @@ -0,0 +1,65 @@ +--- +title: Compatibilité et exigences pour AWS Lambda monitoring +metaDescription: Lambda monitoring agent compatibility and requirements. +freshnessValidatedDate: never +translationType: machine +--- + +Avant d'[installer le monitoring Lambda](/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/configure-serverless-aws-monitoring), assurez-vous que votre système répond aux exigences suivantes. + +## Exigences de base [#requirements] + +Avant d'activer monitoring sans serveur à l'aide de notre couche Lambda , vous aurez besoin de : + +1. Un compte New Relic avec un [rôle d'administrateur](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model/#roles) ou avec le **rôle complémentaire** de de **gestionnaire d'infrastructure**. + +2. Un . + +3. Un compte AWS avec des autorisations pour créer des ressources IAM, des secrets gérés et des Lambdas. Vous avez également besoin d’autorisations pour créer une pile CloudFormation et des buckets S3. + +## Exécutions prises en charge + +En fonction du type d'instrumentation, les durées d'exécution suivantes sont prises en charge. + + + + instrumentationen couches instrumentationbasée sur un SDK instrumentationconteneurisée OpenTelemetry + + + + + * Node.js : `nodejs16.x`, `nodejs18.x`, `nodejs20.x`, `nodejs22.x` + * Python : `python3.8`, `python3.9`, `python3.10`, `python3.11`, `python3.12`, `python3.13` + * Go : `provided.al2`, `provided.al2023` + * Java : `java8.al2`, `java11`, `java17`, `java21` + * Ruby: `ruby3.2`, `ruby3.3` + * .NET : `dotnet6`, `dotnet8` + + + + * Utilisez le package d'agent New Relic pris en charge pour les environnements d'exécution respectifs afin d'intrumenter votre fonction Lambda. + + + + * Node.js(OS/Arch: Linux, Windows, ARM, ARM 64, x86, x86-64) : `nodejs16.x`, `nodejs18.x`, `nodejs20.x`, `nodejs22.x` + * Python (système d'exploitation/architecture : Linux, Windows, ARM, ARM 64, x86, x86-64) : `python3.7`, `python3.8`, `python3.9`, `python3.10`, `python3.11`, `python3.12`, `python3.13` + * Java (système d'exploitation/architecture : Linux, Windows, ARM, ARM 64, x86, x86-64) : `java8`, `java11`, `java17`, `java21` + * Ruby : `ruby3.2`, `ruby3.3` + * .NET (système d'exploitation/architecture : Linux, Windows, ARM, ARM 64, x86, x86-64) : `dotnet6`, `dotnet8` + + + + * Java : `java8.al2` ou `java11` + + + + +## Bibliothèque supportée + +* Java : l'instrumentation en couches et SDK de New Relic Java est compatible avec les versions `com.amazonaws:aws-lambda-java-events` `3.0.0` les plus récentes. + +## Et ensuite ? + + + Commencez à utiliser instrumentation et configuration de votre fonction Lambda. Découvrez comment utiliser New Relic pour monitorer votre fonction AWS Lambda. + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/service-architecture-intelligence/catalogs/applications-catalog.mdx b/src/i18n/content/fr/docs/service-architecture-intelligence/catalogs/applications-catalog.mdx new file mode 100644 index 00000000000..d6c26598708 --- /dev/null +++ b/src/i18n/content/fr/docs/service-architecture-intelligence/catalogs/applications-catalog.mdx @@ -0,0 +1,222 @@ +--- +title: Catalogue d'applications +metaDescription: Learn how to use the Applications catalog to view and manage your application entities in New Relic. +tags: + - catalog + - Applications catalog + - service architecture intelligence + - entities +freshnessValidatedDate: never +translationType: machine +--- + + + Nous travaillons toujours sur cette fonctionnalité, mais nous aimerions que vous l'essayiez ! + + Cette fonctionnalité est actuellement fournie dans le cadre d'un aperçu conformément à nos [politiques de pré-sortie](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy/). + + +Le catalogue d'applications offre une vue unique pour améliorer l'observabilité et la gestion des entités de votre organisation. La vue unifiée des entités Services - APM, Services - OpenTelemetry, Browser et Mobile facilite la prise de décision éclairée, les opérations rationalisées et la collaboration améliorée entre les équipes. + +### Entité prise en charge [#supported-entities] + +L'expérience actuelle du catalogue d'applications New Relic prend en charge l'entité suivante : + +* `Services - APM` +* `Services - OpenTelemetry` +* `Browser` +* `Mobile` + +## Accéder au catalogue des applications [#access-catalog] + +**Prérequis :** + +* Activez les catalogues dans votre compte New Relic. Pour plus d'informations, reportez-vous [à Activer les catalogues](/docs/service-architecture-intelligence/catalogs/catalogs/#enable-catalogs). + +**Pour accéder à l'inventaire du catalogue des applications :** + +1. connectez-vous à votre plateforme New Relic. + +2. Accédez au **volet de navigation de gauche > Catalogs > Applications catalog**. + + Catalog + +La page Application Catalog comporte plusieurs colonnes pour afficher diverses informations sur une entité : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ UI + + Description +
+ Name + + Le nom de l'entité. Cliquez pour ouvrir la page + + Entity Overview + + . Passez la souris sur le nom de l’entité pour afficher des détails supplémentaires dans la boîte de dialogue contextuelle. Vous pouvez également cliquer sur les liens dans la boîte de dialogue contextuelle ou sur le nom de l'entité pour ouvrir la page + + Entity Overview + + . +
+ Type + + Le type de l'entité. Actuellement, nous prenons en charge les entités + + `Services - APM` + + , + + `Services - OpenTelemetry` + + , + + `Browser` + + et + + `Mobile` + + . +
+ Language + + Affiche le langage de programmation associé à l'entité. Ceci est visible lorsqu'une tag de langue est associée à une entité. +
+ Score + + Affiche le % de règles de scorecard pour l'entité. Cette valeur vous aide à comprendre les performances de l'entité par rapport aux bonnes pratiques de l'entreprise définies dans la capacité Scorecards. Passez la souris sur la partition pour afficher des détails supplémentaires dans la boîte de dialogue contextuelle. Pour plus d'informations, reportez-vous + + [aux tableaux de bord.](/docs/service-architecture-intelligence/scorecards/getting-started) +
+ Team + + L'équipe responsable de l'entité. Cliquez sur le nom de l'équipe pour accéder à la page centrale de l'équipe correspondante afin d'afficher plus d'informations sur l'équipe qui gère l'entité. Passez la souris sur le lien + + Team + + pour afficher des détails supplémentaires dans la boîte de dialogue contextuelle. Si une équipe n’est pas affectée à une entité, cliquez sur le bouton + + Assign Team + + et sélectionnez l’équipe responsable dans la liste affichée. Pour plus d'informations, reportez-vous + + [à Teams](/docs/service-architecture-intelligence/teams/teams) + + . +
+ Issues + + Le nombre de problèmes actifs créés dans le + + past 24 hours + + . Passez la souris sur la cellule pour afficher un bref aperçu des problèmes de ces entités. Cliquez sur le numéro pour voir les détails. Passez la souris sur le lien + + Issues + + pour afficher des détails supplémentaires dans la boîte de dialogue contextuelle. Vous pouvez également cliquer sur les liens dans la boîte de dialogue contextuelle pour ouvrir les alertes. Pour plus d'informations, reportez-vous + + [à Alertes](/docs/alerts/overview/) + + et + + [problèmes](/docs/alerts/incident-management/Issues-and-Incident-management-and-response/) + + . +
+ Last Deploy + + La date et l'heure du dernier déploiement. Cliquez sur le lien pour voir les détails du changement et son impact. Pour plus d’informations, consultez + + [suivi des changements.](/docs/change-tracking/change-tracking-introduction/) +
+ Repositories + + Le référentiel associé à l'entité. Cliquez sur le lien du référentiel pour ouvrir le référentiel. Passez la souris sur le lien + + Repositories + + pour ouvrir le référentiel. Pour plus d'informations, reportez-vous + + [à Connecter le référentiel aux services](/docs/codestream/observability/repo-association/) + + . +
+ Golden metrics + + Affiche les métriques liées aux différents types d'entités. Ces mesures peuvent vous aider à mieux évaluer les performances de ces entrées de catalogue. Cela inclut : le temps de réponse, le débit, le taux d'erreur et autres. +
+ +### Ajouter de nouvelles données [#add-new-data] + +Pour ajouter des données supplémentaires à votre catalogue d'applications, cliquez sur le bouton **+ Add Data** en haut à droite. Suivez les instructions à l’écran pour ajouter des données à votre catalogue d’applications. Pour plus d&apos;informations sur l&apos;intégration prise en charge par New Relic, reportez-vous à [Intégrations](https://newrelic.com/instant-observability). + +### Limites [#limitations] + +* Aucune prise en charge du tri des données dans la page Applications catalog . \ No newline at end of file diff --git a/src/i18n/content/fr/docs/service-architecture-intelligence/catalogs/catalogs.mdx b/src/i18n/content/fr/docs/service-architecture-intelligence/catalogs/catalogs.mdx new file mode 100644 index 00000000000..7f77656c2a8 --- /dev/null +++ b/src/i18n/content/fr/docs/service-architecture-intelligence/catalogs/catalogs.mdx @@ -0,0 +1,168 @@ +--- +title: Catalogues +tag: + - Service Architecture Intelligence + - Catalogs + - Software Catalog +metaDescription: 'Catalogs offer a single pane view to enhance the observability and management of software systems in your organization. The unified view of system entities facilitates well-informed decision-making, streamlined operations, and improved collaboration across teams.' +freshnessValidatedDate: never +translationType: machine +--- + + + Nous travaillons toujours sur cette fonctionnalité, mais nous aimerions que vous l'essayiez ! + + Cette fonctionnalité est actuellement fournie dans le cadre d'un aperçu conformément à nos [politiques de pré-sortie](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy/). + + +New Relic Catalogs fournit une vue à panneau unique qui améliore l'observabilité et la gestion du système dans l'ensemble de votre organisation. En offrant une perspective unifiée sur l’entité, il permet aux équipes de prendre des décisions éclairées, de rationaliser les opérations et de collaborer plus efficacement. + +Avec les catalogues, vous pouvez rapidement identifier et vous concentrer sur les informations les plus pertinentes, garantissant ainsi un accès facile à ce qui compte le plus. Il sert de source factuelle unique, permettant à l'utilisateur de découvrir, de gérer et d'optimiser son système en toute confiance. + +En consolidant les données provenant de plusieurs sources, notamment [Teams](/docs/service-architecture-intelligence/teams/teams), [Scorecards](/docs/service-architecture-intelligence/scorecards/getting-started), [Maps](/docs/service-architecture-intelligence/maps/advanced-maps/) et [repository](/docs/codestream/observability/repo-association/) dans une seule interface. Les catalogues remplacent la vue All Entities , offrant une expérience plus structurée et plus perspicace. Il fournit un aperçu complet des entités à forte valeur ajoutée, enrichi de métadonnées détaillées et d&apos;informations exploitables détaillées, aidant les équipes à rester alignées et efficaces. + +## Fonctionnalité clé [#features] + +* **Vue unifiée**: les catalogues sont intégrés à diverses sources telles que [Teams](/docs/service-architecture-intelligence/teams/teams), [Scorecards](/docs/service-architecture-intelligence/scorecards/getting-started), [Maps](/docs/service-architecture-intelligence/maps/advanced-maps/) et [repository](/docs/codestream/observability/repo-association/) dans une seule interface cohérente. Cela affiche les types d&apos;entités de grande valeur avec des métadonnées détaillées, y compris les métriques dorées et des informations détaillées pour fournir une compréhension plus approfondie de l&apos;état du système. + +* **Expérience personnalisée**: Software Catalogs permet à l&apos;utilisateur de personnaliser sa vue pour se concentrer sur le contenu le plus pertinent. Cela aide l’utilisateur à rationaliser le workflow et à améliorer la productivité. + +* **Intégration transparente**: Software Catalogs connecte l&apos;utilisateur à d&apos;autres fonctionnalités New Relic pour lui permettre d&apos;explorer les données en profondeur et d&apos;acquérir une compréhension approfondie de l&apos;entité. + +* **Propriété**: Catalogs affiche les informations de propriété de l’entité dans la colonne Teams . Passez la souris sur le lien Teams pour plus d&apos;informations. Cliquez sur le lien Teams pour visiter la page Teams Hub . Pour plus d&apos;informations, reportez-vous [Teams](/docs/service-architecture-intelligence/teams/teams). + +* **Score**: Software Catalogs est intégré aux tableaux de bord pour montrer les performances de votre entité par rapport aux bonnes pratiques définies par l&apos;entreprise. Pour plus d&apos;informations, reportez-vous à [Scorecards.](/docs/service-architecture-intelligence/scorecards/getting-started) + +## Bien démarrer [#getting-started] + +### Activer les catalogues [#enable-catalogs] + +**Pour intégrer l'inventaire des catalogues :** + +1. connectez-vous à votre plateforme New Relic. + +2. Accédez au **volet de navigation de gauche > All Entities**. + +3. Cliquez sur le bouton **Try It Now** . + +4. Suivez les instructions à l’écran et acceptez les conditions générales pour terminer l’intégration. Une fois l'embarquement terminé, la page Catalogues s'affiche, remplaçant la page All Entities . + + /\* <img title="Catalogue" alt="Catalogue" src=\{CatalogHome} /> \*/ + + + Pour revenir à la page All Entities , reportez-vous [à Retour à Toutes les entités](#back-entities). + + +### Personnaliser la vue [#personalized-view] + +Vous pouvez personnaliser la vue Catalogs pour ajouter ou supprimer des filtres et des colonnes en fonction de vos préférences. Cela vous permet de vous concentrer sur le contenu le plus pertinent et de rationaliser vos workflows. + +/\* <img title="Filtres dans le catalogue" alt="Filtres dans le catalogue" src=\{CatalogFilters} /> \*/ + + + + + + + + + + + + + + + + + + + + + + + +
+ Action + + Description +
+ Pour ajouter des filtres + + Cliquez sur l’icône plus + + (+) + + dans le volet supérieur et sélectionnez le filtre requis dans la liste. Vous pouvez ajouter plusieurs filtres pour affiner votre recherche. +
+ Pour afficher ou masquer des colonnes + + Cliquez sur l’icône d’engrenage dans le volet de droite et sélectionnez ou désélectionnez les colonnes requises à afficher ou à masquer. +
+ +#### Enregistrez et accédez à la vue personnalisée + +Vous pouvez enregistrer votre vue personnalisée pour un accès rapide. + + + + + + + + + + + + + + + + + + + + + + + +
+ Action + + Description +
+ Pour enregistrer une vue + + En haut à gauche, cliquez sur + + Save view + + à côté du titre de la fonctionnalité Catalogues. +
+ Pour accéder à une vue enregistrée + + Cliquez sur le titre de la capacité Catalogues pour afficher une liste des + + Save view + + disponibles. +
+ +### Retour à Toutes les entités [#back-entities] + +La nouvelle vue Catalogues remplace la capacité All Entities de la navigation. Si vous devez rechercher des types d&apos;entité autres que l&apos;entité prise en charge dans Catalogs, utilisez la recherche globale Quick Find `(cmd + K or ctrl+K)` ou recherchez-les dans leurs capacités correspondantes, telles que l&apos;infrastructure, Synthetics, la charge de travail, le niveau de service, etc. + + + Tout lien, permanent ou vue enregistrée faisant référence à All Entities continuera à fonctionner comme prévu, que vous soyez dans la nouvelle expérience Catalogs ou que vous ayez décidé de revenir à All Entities. + + +Pour revenir à la page All Entities : + +1. connectez-vous à votre plateforme New Relic. +2. Accédez au **volet de navigation de gauche > Catalogs**. +3. Cliquez sur le bouton **Switch back to all entities** . Cela permet l&apos;expérience New Relic All Entities . + + + Pour revenir à la vue Catalogs , cliquez sur le bouton **Try it out** dans la bannière, sous la barre de filtre d&apos;entité. + + +/\* <img title="Catalogue" alt="Catalogue" src=\{CatalogHome} /> \*/ \ No newline at end of file diff --git a/src/i18n/content/fr/docs/service-architecture-intelligence/catalogs/repositoryCatalog.mdx b/src/i18n/content/fr/docs/service-architecture-intelligence/catalogs/repositoryCatalog.mdx new file mode 100644 index 00000000000..63ed917b1f8 --- /dev/null +++ b/src/i18n/content/fr/docs/service-architecture-intelligence/catalogs/repositoryCatalog.mdx @@ -0,0 +1,219 @@ +--- +title: catalogue référentiel +tag: + - Service Architecture Intelligence + - Repository + - Catalog +metaDescription: The Repository catalog is a tool designed to centralize and streamline the management of repositories within an organization. +freshnessValidatedDate: never +translationType: machine +--- + + + Nous travaillons toujours sur cette fonctionnalité, mais nous aimerions que vous l'essayiez ! + + Cette fonctionnalité est actuellement fournie dans le cadre d'un aperçu conformément à nos [politiques de pré-sortie](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy/). + + +Le Repository catalog est un outil conçu pour centraliser et rationaliser la gestion du référentiel au sein d&apos;une organisation. En fournissant une vue unifiée de tous les référentiels, il améliore la collaboration entre les équipes et simplifie la découverte, l&apos;accès et la gestion du référentiel de code. + +Le Repository catalog est conçu pour briser les silos entre les équipes et augmenter la collaboration entre les équipes. Il permet aux développeurs, aux ingénieurs fiabilité des sites (SRE) et à d&apos;autres parties prenantes d&apos;identifier efficacement les référentiels existants, de comprendre leur objectif et de déterminer leur propriété ou leur statut. Cette approche centralisée conduit à une amélioration de la collaboration, de la responsabilité et de la productivité dans l’ensemble de l’organisation. + +## Fonctionnalité clé [#features] + +* **Découverte centralisée de référentiels :** Identifiez rapidement les référentiels pertinents pour les services, les projets ou [Teams](/docs/service-architecture-intelligence/teams/teams), en minimisant le temps passé à rechercher ou à consulter un collègue. + +* **Service et référentiel Navigation :** Naviguez de manière transparente depuis les applications ou les services vers leur référentiel de définition et vice versa, aidant à comprendre la dépendance du code et infrastructure. + +* **Propriété et responsabilité :** identifiez facilement les propriétaires de référentiel, prenez en charge les requêtes directes et améliorez la responsabilité au sein des équipes. + +* **référentiel Insights:** accédez à des mesures détaillées sur l&apos;activité du référentiel, telles que la demande de tirage ouverte et l&apos;historique de déploiement, pour identifier les projets négligés et optimiser l&apos;allocation des ressources. + +* **Gestion et opérations :** Effectuer des opérations en masse, telles que l&apos;attribution d&apos;étiquettes ou d&apos;équipes, pour gérer efficacement le référentiel et maintenir les normes organisationnelles. + +## Accéder au catalogue référentiel [#access-repository] + +**Prérequis :** + +* Activez les catalogues dans votre compte New Relic. Pour plus d'informations, reportez-vous [à Activer les catalogues](/docs/service-architecture-intelligence/catalogs/catalogs/#enable-catalogs). + +**Pour accéder à l'inventaire du catalogue du référentiel :** + +1. connectez-vous à votre plateforme New Relic. + +2. Accédez au **volet de navigation de gauche > Catalogs > Repository catalog**. + + RepositoryCatalog + +Le Repository catalog affiche tous les référentiels liés et les informations associées : + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ UI + + Description +
+ Name + + Le nom du référentiel. Cliquez pour ouvrir le volet des détails du référentiel sur le côté droit. Ce volet de détails contient des informations telles que l'aperçu du référentiel, le référentiel d'entité lié à, la balise, etc. +
+ Description + + La description du référentiel. +
+ Origin/Source + + Affiche les informations où ce référentiel est hébergé. +
+ Organization + + Organisation GitHub d'où les référentiels ont été importés. +
+ Team + + L'équipe responsable de l'entité. Cliquez sur le nom de l'équipe pour accéder à la page centrale de l'équipe correspondante afin d'afficher plus d'informations sur l'équipe qui gère l'entité. Passez la souris sur le lien + + Team + + pour afficher des détails supplémentaires dans la boîte de dialogue contextuelle. Si une équipe n’est pas affectée à une entité, cliquez sur le bouton + + Assign Team + + et sélectionnez l’équipe responsable dans la liste affichée. Pour plus d'informations, reportez-vous + + [à Teams](/docs/service-architecture-intelligence/teams/teams) + + . +
+ Last Deploy + + La date et l'heure du dernier déploiement. Cliquez sur le lien pour voir les détails du changement et son impact. Pour plus d’informations, consultez + + [suivi des changements.](/docs/change-tracking/change-tracking-introduction/) +
+ Entities + + Le nombre d'entités liées au référentiel. +
+ URL + + L'URL pour accéder au référentiel. +
+ Last Deploy + + La date et l'heure du dernier déploiement. Cliquez sur le lien pour voir les détails du changement et son impact. Pour plus d’informations, consultez + + [suivi des changements.](/docs/change-tracking/change-tracking-introduction/) +
+ Open PRs + + Affiche le nombre de demandes de tirage ouvertes dans le référentiel. Passez la souris sur le lien pour afficher des détails supplémentaires dans la boîte de dialogue contextuelle. +
+ Creation Date + + Affiche la date de création du référentiel. +
+ Last Update + + Affiche la date à laquelle le référentiel est mis à jour. +
+ Primary Language + + Affiche la langue la plus utilisée dans le référentiel. +
+ +### Ajouter de nouvelles données [#add-new-data] + +Pour ajouter des données supplémentaires à votre Repository catalog , cliquez sur le bouton **+ Add GitHub repositories** en haut à droite. Suivez les instructions à l&apos;écran pour ajouter des données à votre référentiel. Pour plus d’informations sur l’ajout d’un référentiel, reportez-vous à [l’intégration GitHub.](/docs/service-architecture-intelligence/github-integration) + +### Limites [#limitations] + +* Aucune prise en charge du tri des données dans la page Repository catalog . +* Dans certains scénarios, les vues enregistrées peuvent ne pas fonctionner comme prévu dans le Repository catalog. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/service-architecture-intelligence/getting-started.mdx b/src/i18n/content/fr/docs/service-architecture-intelligence/getting-started.mdx new file mode 100644 index 00000000000..d1c5d18e50c --- /dev/null +++ b/src/i18n/content/fr/docs/service-architecture-intelligence/getting-started.mdx @@ -0,0 +1,38 @@ +--- +title: Prise en main de l'architecture de services d'intelligence +metaDescription: Learn more about Service Architecture Intelligence in New Relic One. +tags: + - service architecture intelligence + - New Relic One + - service catalog + - scorecards + - catalog + - inventory catalog + - repository catalog + - team +freshnessValidatedDate: never +translationType: machine +--- + + + Nous travaillons toujours sur cette fonctionnalité, mais nous aimerions que vous l'essayiez ! + + Cette fonctionnalité est actuellement fournie dans le cadre d'un programme d'aperçu conformément à nos [politiques de pré-sortie](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy). + + +L'architecture de services intelligente fournit une vue centralisée des services et des opérations de votre organisation. Il améliore la productivité en offrant des outils pour une gestion efficace des ressources, une optimisation opérationnelle et une assurance de conformité. L'architecture de services d'intelligence intègre diverses fonctionnalités, notamment la gestion d'équipe, l'observabilité du système, l'évaluation des performances et la visualisation infrastructure , pour rationaliser les processus et améliorer la collaboration entre les équipes. + +## Capacités [#capabilities] + +L'architecture de services d'intelligence offre les capacités suivantes : + +* **Équipes :** New Relic Teams connecte l&apos;entité que vous monitorez aux équipes qui la possèdent. Cette fonctionnalité vous permet de créer ou d&apos;importer des équipes dans la plateforme New Relic, d&apos;attribuer des entités aux équipes et de gérer efficacement les tâches liées aux équipes. Pour plus d&apos;informations, consultez [l'équipe](/docs/service-architecture-intelligence/teams/teams). + +* **Catalogues :** Les catalogues New Relic fournissent des inventaires centralisés d&apos;entités de grande valeur, avec des détails tels que la propriété, l&apos;état de santé et l&apos;état de conformité. Utilisez les catalogues pour mieux comprendre l&apos;état de santé de votre système, identifier les domaines à améliorer et prendre des mesures pour améliorer les performances au sein d&apos;une plateforme unifiée. Pour plus d&apos;informations, consultez [le catalogue](/docs/service-architecture-intelligence/catalogs/catalogs). + + * **Catalogue d'applications :** Le catalogue d&apos;applications présente une vue consolidée de l&apos;entité de l&apos;application, facilitant l&apos;observabilité et la gestion des applications dans votre organisation. Cette perspective unifiée favorise la prise de décision éclairée, aide à rationaliser les workflows et favorise la collaboration en équipe. Pour plus d&apos;informations, reportez-vous [au Catalogue des applications](/docs/service-architecture-intelligence/catalogs/applications-catalog). + * **catalogue de référentiels :** Le catalogue de référentiels renforce la supervision du référentiel d&apos;une organisation, favorisant la transparence et la coopération entre les équipes. Il fournit aux parties prenantes les moyens de localiser et de comprendre efficacement les référentiels, leur contenu et leur statut, ainsi que d&apos;en identifier la propriété. Pour plus d&apos;informations, reportez-vous [au Catalogue du référentiel](/docs/service-architecture-intelligence/catalogs/repositoryCatalog). + +* **Cartes de score :** Les cartes de score New Relic évaluent les performances de l&apos;équipe ou du groupe par rapport à des règles prédéfinies et des métriques personnalisées. Ils fournissent une approche standardisée et structurée du développement de logiciels, aidant les organisations à adhérer à une stratégie d&apos;ingénierie bien définie. Pour plus d&apos;informations, reportez-vous [aux Tableaux de bord](/docs/service-architecture-intelligence/scorecards/getting-started). + +* **Cartes :** la nouvelle expérience cartographique fournit une vue unifiée et intégrée de votre parc cloud, permettant une navigation et une exploration transparentes des services et de l&apos;infrastructure. Il intègre les données de tracing, d’infrastructure et de performances dans une expérience cohérente, répondant aux limites de la carte de service précédente. Pour plus d&apos;informations, reportez-vous [à Cartes](/docs/service-architecture-intelligence/maps/advanced-maps). \ No newline at end of file diff --git a/src/i18n/content/fr/docs/service-architecture-intelligence/github-integration.mdx b/src/i18n/content/fr/docs/service-architecture-intelligence/github-integration.mdx new file mode 100644 index 00000000000..d537450979f --- /dev/null +++ b/src/i18n/content/fr/docs/service-architecture-intelligence/github-integration.mdx @@ -0,0 +1,56 @@ +--- +title: Intelligence Architecture de services avec intégration GitHub +tags: + - New Relic integrations + - GitHub integration +metaDescription: Set up automatic ingestion of your GitHub Dependabot events by using webhook for ongoing ingestion. +freshnessValidatedDate: never +translationType: machine +--- + + + Nous travaillons toujours sur cette fonctionnalité, mais nous aimerions que vous l'essayiez ! + + Cette fonctionnalité est actuellement fournie dans le cadre d'un programme d'aperçu conformément à nos [politiques de pré-sortie](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy). + + +L'intégration GitHub New Relic importe les utilisateurs et les équipes de votre compte GitHub pour améliorer la visibilité de votre [capacité d'architecture de services de renseignement](/docs/service-architecture-intelligence/getting-started) sur la plateforme New Relic. + +Cette intégration rationalise le processus d'intégration des utilisateurs et des équipes, simplifie la gestion des rôles et clarifie la modélisation de la propriété des entités, réduisant ainsi la configuration, le temps et les efforts de configuration. Cette intégration de monitoring de l'IA permet d'améliorer la gestion et la visibilité des [catalogues](/docs/service-architecture-intelligence/catalogs/catalogs) et [des tableaux de bord](/docs/service-architecture-intelligence/scorecards/getting-started) au sein de New Relic. Pour plus d&apos;informations, reportez-vous à [la section Architecture de services de renseignement](/docs/service-architecture-intelligence/getting-started). + +**Prérequis :** + +* Connectez-vous à votre compte GitHub que vous prévoyez d'intégrer à New Relic. +* Vous devez être le gestionnaire de l’organisation ou le gestionnaire du domaine d’authentification. + +**Pour configurer l’intégration GitHub :** + +1. Accédez à **[one.newrelic.com > + Integration & Agents > GitHub integration](https://one.newrelic.com/marketplace/install-data-source?state=9306060d-b674-b245-083e-ff8d42765e0d)**. + +2. Sur l’écran **Select an account** , conservez la sélection de compte par défaut et cliquez sur **Continue**. + +3. Sur l’écran de **Integration setup** : + + 1. Pour vous connecter à votre compte GitHub, cliquez sur **Install**. L&apos;observabilité New Relic s&apos;ouvre sur la place de marché GitHub. + + 2. Terminez l'installation de l'application au sein de votre organisation GitHub pour récupérer les données relatives à l'utilisateur, aux équipes et au référentiel. Une fois l'installation terminée, vous serez redirigé vers la plateforme New Relic. + + 3. Cliquez sur **First time sync**. + + 4. *(Facultatif)* Cliquez sur **On-demand sync** pour synchroniser manuellement les données. + + + Vous pouvez synchroniser manuellement les données une fois toutes les 4 heures. Le bouton **On-demand sync** reste désactivé si la synchronisation a eu lieu dans les 4 heures précédentes. + + + 5. Après avoir affiché le message de démarrage de la synchronisation, cliquez sur **Continuer**. L&apos;écran **d'intégration GitHub** affichera alors le nombre d&apos;équipes et le référentiel, en s&apos;actualisant toutes les 5 secondes. Prévoyez quelques minutes pour l’importation complète de toutes les données. + + GitHub integration + +4. Sur l’écran **GitHub integration** : + + * Cliquez sur **Go to Teams** pour afficher les informations des équipes importées sur [Teams](/docs/service-architecture-intelligence/teams/teams). + + + Pour attribuer automatiquement le référentiel GitHub à vos équipes, créez une propriété personnalisée `teamOwningRepo` dans GitHub avec le nom de l&apos;équipe comme valeur de chaîne. L&apos;intégration attribuera automatiquement le référentiel aux équipes respectives en fonction de la propriété personnalisée. + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/service-architecture-intelligence/maps/advanced-maps.mdx b/src/i18n/content/fr/docs/service-architecture-intelligence/maps/advanced-maps.mdx new file mode 100644 index 00000000000..a7d39c6920a --- /dev/null +++ b/src/i18n/content/fr/docs/service-architecture-intelligence/maps/advanced-maps.mdx @@ -0,0 +1,406 @@ +--- +title: Comprendre et utiliser Maps +tags: + - Understand dependencies + - Understand system dependencies + - Service maps +metaDescription: 'Maps are visual, customizable representations of your application architecture.' +freshnessValidatedDate: never +translationType: machine +--- + + + Nous travaillons toujours sur cette fonctionnalité, mais nous aimerions que vous l'essayiez ! + + Cette fonctionnalité est actuellement fournie dans le cadre d'un programme d'aperçu conformément à nos [politiques de pré-sortie](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy). L&apos;aperçu public inclut l&apos;accès à **[Auto-Discovery](/docs/infrastructure/amazon-integrations/connect/set-up-auto-discovery-of-aws-entities)** et **[Transaction 360](/docs/apm/transactions/workload-performance-monitoring/transaction-workloads)**, regroupés ensemble. En optant pour l&apos;aperçu, vous avez accès aux trois fonctionnalités sans frais ; la désactivation de l&apos;aperçu s&apos;applique également aux trois. + + +**Maps** offre une vue unifiée et intégrée de votre parc cloud, permettant une navigation et une exploration transparentes des services et de l&apos;infrastructure. Il intègre les données de tracing, d&apos;infrastructure et de performances dans une expérience cohérente, répondant aux limites d&apos;autres expériences cartographiques. + +## Carte des services vs. Cartes [#differences] + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ fonctionnalité + + Cartographie des services + + Cartes +
+ Se concentrer + + Afficher un service à la fois. + + Obtenez une vue complète de plusieurs services, améliorant ainsi la compréhension globale du système. +
+ Navigation + + Naviguer à travers les services individuels + + Explorez l’intégralité de la topologie cloud , y compris les ressources AWS, à partir d’une vue holistique de l’entité et de leurs relations. +
+ Regroupement + + Pas disponible + + Organisez les entités en groupes à plusieurs niveaux pour une visualisation et une gestion simplifiées. +
+ grappe + + Pas disponible + + Regroupez automatiquement les nœuds pour désencombrer la carte, rendant les environnements complexes simples et gérables. +
+ visibilité des infrastructures + + Contexte limité sur infrastructure. + + Inspectez directement les ressources AWS et cloud , en fournissant des informations plus détaillées sur la prise en charge infrastructure . +
+ Relations de service + + Voir l'interaction directe entre les services. + + Comprendre les interactions complexes, y compris les relations de contournement, pour une meilleure gestion des dépendances. +
+ Résumé de l'état de santé + + Indicateurs de santé de base + + Filtrez les services par état de santé pour vous concentrer sur les services critiques, dégradés ou non instrumentés. +
+ Personnalisation + + Paramètres d'apparence de base + + Personnalisez la vue de la carte et les styles de bordure en fonction de besoins spécifiques, améliorant ainsi la clarté et la concentration. +
+ +**Maps** est disponible uniquement pour les clients **[Advanced Compute](https://newrelic.com/pricing/compute#pricing_plan-compute)** . Pour vous inscrire, accédez à **[one.newrelic.com > Administration](https://one.newrelic.com//admin-portal) &gt; Preview &amp; Trials** et inscrivez-vous à **New experiences: Maps, Transaction 360, and Auto-Discovery**. + +## Composants de la carte [#map-components] + +Familiarisez-vous avec les composants de **Maps**, qui visualisent les relations au sein de vos services, ressources et équipes, et affichent leur état de santé. + +new-map-view + +
+ **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; APM &amp; Services**:Vue des cartes. +
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Composant + + Description +
+ Noeud focal + + L'entité à partir de laquelle vous ouvrez la carte. Il sert de point de référence pour visualiser les relations avec d’autres entités situées à une certaine profondeur. Sélectionnez le nœud focal pour obtenir la vue complète des détails de l’entité dans le volet de droite. +
+ Nœuds connectés + + Les nœuds connectés sont des entités qui ont une relation directe avec le nœud focal. Ils apparaissent à une profondeur éloignée du nœud focal. + + * **Nœuds entrants**: ces nœuds envoient des données au nœud focal et apparaissent à gauche et en haut du nœud focal dans la vue par défaut. + * **Nœuds sortants**: ces nœuds reçoivent des données du nœud focal et apparaissent à droite et en bas du nœud focal dans la vue par défaut. + + Sélectionnez un nœud pour obtenir une vue complète des détails de l’entité sur le panneau de droite. Pour ouvrir la carte de ce nœud, dans la section **Related entities** du panneau de droite, cliquez sur **See full map**. +
+ Bords + + Les arêtes illustrent les relations entrantes et sortantes entre les nœuds. Pointez sur une arête pour afficher le type de relation et le sens du flux de données. + + Vous pouvez modifier le style de bordure à partir du panneau **Map View Settings** en utilisant la liste déroulante **Edge Path Type** . +
+ Zoom avant, zoom arrière, centre et réinitialisation du zoom + + Ajustez la vue de la carte en zoomant et en dézoomant ou en centrant et en réinitialisant le niveau de zoom. Si les nœuds se trouvent en dehors de la fenêtre d'affichage principale, la miniature de la carte fournit un aperçu compact pour aider à naviguer et à localiser les nœuds. +
+ Résumé de l'état de santé + + Le résumé de l’état de santé fournit un aperçu rapide des états des nœuds, à l’aide d’indicateurs à code couleur et de comptages pour vous aider à identifier les zones nécessitant une attention particulière. Vous pouvez + + [instrumenter les nœuds non instrumentés](#node-instrumentation) + + directement à partir du résumé d'état. +
+ grappe + + Cluster est le regroupement logique de nœuds qui simplifient la carte en consolidant les nœuds liés. Un cluster se forme lorsqu'au moins 10 nœuds : + + * Partager le même nœud parent. + * Avoir le même type de relation. + * Appartiennent au même domaine et au même type d’entité. + * Présentent la même dépendance (entrante ou sortante). + + Un cluster affiche le nombre de nœuds qu'il contient et la couleur du cluster dépend de l'état de santé des nœuds qu'il contient. + + * **Rouge**: Au moins un nœud critique + * **Jaune**: Au moins un nœud dégradé mais aucun nœud critique + * **Vert**: Tous les nœuds sont opérationnels + + Sélectionnez un cluster pour afficher les nœuds dans le panneau de droite de la carte. Révélez les nœuds du panneau pour les afficher individuellement sur la carte en dehors du cluster. +
+ +## Points d'entrée de la carte [#entry-points] + +**Maps** offre une expérience de modélisation cohérente accessible via différents points d&apos;entrée. Selon le type d’entité que vous sélectionnez pour explorer, des vues distinctes sont disponibles pour afficher les services, les équipes, les ressources d’infrastructure ou les flux de données dynamiques. Cette approche unifiée offre des informations claires et détaillées sur l&apos;interaction des services, la dépendance infrastructure , les opérations de l&apos;équipe et les flux de données. + + + + **Maps** vous permet de visualiser les relations et la dépendance entre les services dans les environnements mobiles, de navigateur et APM. Dans sa vue par défaut, la carte affiche uniquement les services, mais vous pouvez choisir d&apos;afficher les ressources d&apos;infrastructure associées dans une couche dédiée. + + Pour accéder à la carte pour les environnements mobiles, navigateur et APM : + + 1. Allez à **[one.newrelic.com](https://one.newrelic.com/all-capabilities)**. + 2. Dans la liste des capacités, sélectionnez **APM & services**, **Mobile** ou **Browser**. + 3. Dans la liste des services, recherchez et sélectionnez le service que vous souhaitez afficher. + 4. Pour ouvrir la carte, à partir du deuxième menu de navigation à gauche, cliquez sur **Service map**. + + Pour accéder à la carte d'un service à partir d'une alerte : + + 1. Allez à **[one.newrelic.com > Alerts](https://one.newrelic.com/alerts)**. + 2. Pour ouvrir la page du problème, à partir de **Issues & Actitvity**, sélectionnez le problème associé à un service (cochez la colonne **Entity name** ). + 3. Pour obtenir la carte de service, à partir de la page du problème, faites défiler jusqu'à la section **Impacted entries** . + + + + Grâce à **Maps** vous pouvez explorer les ressources d’infrastructure et leurs relations internes. Il fournit une vue détaillée de la manière dont les composants d&apos;infrastructure prennent en charge vos services, vous permettant d&apos;inspecter directement les ressources AWS et cloud. La carte vous aide à comprendre les dépendances infrastructure sous-jacente qui sont essentielles au maintien des performances et de la disponibilité du service. Avec [AWS Auto-Discovery](/docs/infrastructure/amazon-integrations/connect/set-up-auto-discovery-of-aws-entities), vous pouvez également afficher les relations internes entre les services AWS. + + Pour accéder à la carte des infrastructures : + + 1. Allez à **[one.newrelic.com](https://one.newrelic.com/alerts) &gt; All entities**. + 2. Depuis la page **All entities** , sélectionnez l’hôte que vous souhaitez afficher. + 3. Pour ouvrir la carte, sur la page hôte, cliquez sur **Infrastructure**. + + Pour accéder à l'infrastructure associée à un service sur la carte : + + 1. À partir de **[one.newrelic.com](https://one.newrelic.com)**, ouvrez la carte pour n’importe quel service dans **APM & services**, **Mobile** ou **Browser**. + 2. Pour ouvrir le **Dynamic Flow Map**, pointez sur un nœud et cliquez sur **Inspect infrastructure**. + + + + Grâce à **Maps** vous pouvez visualiser les services spécifiques à l’équipe et leur interaction. Il vous permet d&apos;explorer les services et les dépendances dans le contexte des opérations de votre équipe, facilitant la collaboration et la gestion efficace des ressources appartenant à l&apos;équipe. + + Pour accéder à la carte des équipes : + + 1. Allez à **[one.newrelic.com > Teams](https://one.newrelic.com/teams)**. + 2. Pour obtenir les détails d’une équipe, à partir de la page **Teams** , sélectionnez l’équipe. + 3. Accédez à l’onglet **Map** . + + + + Le [**Dynamic Flow Map**](/docs/service-architecture-intelligence/maps/dynamic-flow-map) offre une vue détaillée du flux de données à travers vos services, y compris l&apos;interaction avec la base de données et d&apos;autres composants backend . Il fournit des informations détaillées sur les performances et le goulot d&apos;étranglement potentiel, permettant un dépannage efficace. + + + + + **Maps** avec [**Distributed tracing**](/docs/apm/distributed-tracing/getting-started/introduction-distributed-tracing) et [**Auto-Discovery**](/docs/infrastructure/amazon-integrations/connect/set-up-auto-discovery-of-aws-entities) fournit des relations unifiées entre les entités. Bien que **Maps** reste fonctionnel même si vous n&apos;avez pas activé **Distributed tracing** ou **Auto-Discovery**, l&apos;activation de ces fonctionnalités est recommandée pour une expérience plus impactante et cohérente. + + +## Utiliser **Maps** [#use-maps] + +Grâce aux fonctionnalités et aux composants de **Maps**, vous pouvez explorer et gérer votre environnement cloud des manières suivantes : + + + + Le résumé de l’état de santé fournit un aperçu rapide de tous les nœuds. Chaque état de santé est représenté par une légende de couleur, avec un numéro à côté de chaque légende indiquant le nombre de nœuds dans cet état. Cela vous permet d’évaluer et de traiter rapidement les domaines nécessitant une attention particulière. + + color-code + + ### Instrumenter les nœuds non instrumentés [#node-instrumentation] + + S'il y a des nœuds non instrumentés sur la carte, ils apparaissent avec une bordure en pointillé. Une fois les nœuds instrumentés, la carte s'actualise pour afficher l'état de santé mis à jour. + + Pour intrumenter les nœuds : + + 1. À partir du résumé de l’état de santé de la carte, pointez sur **Uninstrumented** et cliquez sur **Instrument what's missing**. + 2. Sur la page **Add more instrumentation**, suivez les instructions à l’écran pour intrumenter chaque entité. + + ### Filtrer les nœuds par état de santé [#node-filtering] + + Si vous souhaitez vous concentrer sur certains nœuds avec des catégories de santé spécifiques, filtrez les nœuds comme suit. + + 1. Pour ouvrir le panneau **Map View Settings** , en haut à droite de la carte, cliquez sur **Settings**. + 2. Dans la liste **Health Status** , sélectionnez le statut spécifique que vous souhaitez afficher. La vue cartographique est mise à jour pour afficher uniquement les nœuds avec l&apos;état de santé sélectionné. + + ### Gérer le cluster avec état de santé [#cluster-health-status] + + Si des clusters sont disponibles dans votre vue cartographique, vous pouvez filtrer les nœuds par état de santé et les afficher séparément. Pointez vers un cluster et révélez l’état de santé pour afficher les nœuds avec cet état en dehors du cluster. Cela vous aide à vous concentrer sur des nœuds spécifiques au sein du cluster. + + + + Vous pouvez regrouper les nœuds sur la carte pour réduire l'encombrement et mettre en évidence les relations, ce qui facilite l'identification des modèles et la gestion des dépendances. Cette approche structurée offre une vue claire et organisée de votre environnement cloud, adaptée à vos besoins spécifiques. + + ### Créer des groupes [#create-groups] + + 1. Pour organiser les nœuds par un attribut spécifique sur la carte, accédez à la liste déroulante **Group by** et sélectionnez l&apos;attribut. + 2. Pour obtenir le regroupement sur la carte, cliquez sur **Apply**. Chaque groupe affiche le nombre de nœuds qu&apos;il contient. + 3. Pour ajouter un autre niveau au groupe, dans la liste déroulante **Group by** , cliquez sur **+ Create a group** &gt; sélectionnez un attribut &gt; **Apply**. L&apos;attribut de premier niveau forme le groupe principal et l&apos;attribut de deuxième niveau forme des sous-groupes imbriqués dans le groupe principal. Vous pouvez appliquer jusqu&apos;à cinq niveaux de regroupement. + + #### Apparence et dénomination du groupe [#group-appearance] + + Les groupes sont nommés en fonction de l’attribut sélectionné. Par exemple, si vous regroupez les nœuds par l’attribut `Account` , le nom du groupe apparaît comme `Account: `. Les groupes sont codés par couleur en fonction de l&apos;état de santé des nœuds qu&apos;ils contiennent, comme suit : + + * **Rouge**: Au moins un nœud critique + * **Jaune**: Au moins un nœud dégradé mais aucun nœud critique + * **Vert**: Tous les nœuds sont opérationnels + + Vous pouvez développer des groupes pour afficher les nœuds et les sous-groupes imbriqués qu'ils contiennent. Selon vos besoins, vous pouvez réorganiser les niveaux de groupe en mélangeant les attributs dans la liste déroulante **Group by** . + + + + **Maps** fournit plusieurs fonctionnalités pour vous aider à explorer les relations, la dépendance et les détails métriques et d&apos;équipe d&apos;une entité. Lorsque vous pointez vers un nœud sur la carte, une fenêtre contextuelle apparaît avec les options interaction suivantes et trois métriques dorées. Vous pouvez utiliser ces options pour naviguer et explorer davantage la carte. + + ### Développer la dépendance [#expand-dependency] + + Pour afficher les nœuds dépendants de n’importe quel nœud sur la carte, pointez sur le nœud et cliquez sur **Expand dependencies**. Ce nœud devient le nœud focal, révélant tous les nœuds dépendants situés à une profondeur avec des arêtes connectées. + + ### Inspecter les ressources d'infrastructure [#inspect-resources] + + Pour afficher les ressources d’infrastructure associées à un nœud, pointez sur le nœud et cliquez sur **Inspect Infrastructure**. La carte de l&apos;infrastructure s&apos;ouvre, affichant les nœuds d&apos;infrastructure associés et leur relation interne à deux profondeurs du service APM. Si vous avez activé la fonctionnalité **[Auto-Discovery](/docs/infrastructure/amazon-integrations/connect/set-up-auto-discovery-of-aws-entities)** , vous pouvez afficher les relations internes entre les services AWS. + + ### Afficher le flux dynamique [#view-data-flow] + + Pour afficher le flux de données via votre nœud, y compris l'interaction avec la base de données et d'autres composants backend , pointez sur un nœud et cliquez sur **View dynamic flow**. La carte de flux dynamique s&apos;ouvre, offrant une vue détaillée du flux de données à travers le nœud, y compris l&apos;interaction avec la base de données et d&apos;autres composants backend . Pour plus de détails, reportez-vous [**Dynamic Flow Map**](/docs/service-architecture-intelligence/maps/dynamic-flow-map). + + ### Propriétaire du nœud d'accès [#access-node-owner] + + Pour accéder au propriétaire d’un nœud, pointez sur le nœud et cliquez sur le nom de l’équipe. La page de l'équipe s'ouvre, affichant les détails de l'équipe et l'entité détenue par l'équipe. + + ### Accéder aux détails du nœud [#access-node-details] + + Pour afficher et ajuster les détails d’un nœud, pointez sur le nœud et cliquez sur le nom du nœud. La page de résumé de l’entité s’ouvre, affichant les détails de l’entité. + + + + Dans **Maps**, les passerelles peuvent masquer la véritable entité à laquelle votre nœud focal se connecte. Pour visualiser le nœud réel au lieu de la passerelle, vous pouvez établir manuellement une relation d&apos;appel de contournement. + + Pour configurer une relation de contournement d’appel : + + 1. Sur la carte, sélectionnez le nœud de passerelle que vous souhaitez contourner. Le nom des passerelles peut commencer par `Gateway:`, `Nerdgraph:` ou `GraphQL:`. + 2. Dans le panneau de droite, sous la section **Tags**, ajoutez la tag `service_gateway: true`. + 3. Pour appliquer les modifications, actualisez la carte. Le nœud réel remplace le nœud de passerelle, vous permettant de visualiser la relation d'appel de contournement entre le nœud focal et le nœud réel. + + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/service-architecture-intelligence/maps/dynamic-flow-map.mdx b/src/i18n/content/fr/docs/service-architecture-intelligence/maps/dynamic-flow-map.mdx new file mode 100644 index 00000000000..e20a43a19b8 --- /dev/null +++ b/src/i18n/content/fr/docs/service-architecture-intelligence/maps/dynamic-flow-map.mdx @@ -0,0 +1,75 @@ +--- +title: Carte de flux dynamique +tags: + - Dynamic flow map + - Trace flow map + - Advanced map experience +metaDescription: 'Dynamic flow maps are visual, customizable representations of your aggregated trace data.' +freshnessValidatedDate: never +translationType: machine +--- + + + Nous travaillons toujours sur cette fonctionnalité, mais nous aimerions que vous l'essayiez ! + + Cette fonctionnalité est actuellement fournie dans le cadre d'un programme d'aperçu conformément à nos [politiques de pré-sortie](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy). + + +**Dynamic Flow Map** est un outil de visualisation qui fournit une vue cartographique des données de trace agrégées. Il met en évidence les signaux de performance liés à un service spécifique, appelé nœud focal. La carte utilise des données de tracing pour afficher les relations entre les services participant au tracing avec le nœud focal, en corrélant les changements de performances entre les entités en amont et en aval. Cela permet d&apos;identifier les problèmes de performances dans les applications et les services, aidant ainsi à identifier la cause première. + +## Pourquoi c'est important [#why-it-matters] + +**Dynamic Flow Map** aide à réduire le Délai moyen de résolution (MTTR) en vous permettant de visualiser et d&apos;identifier les anomalies de performances. En corrélant les données de performances de tracing en amont et en aval, cela vous aide à comprendre comment différents services interagissent et affectent les performances des autres. + +Pour vous familiariser avec les composants et les fonctionnalités de la carte, reportez-vous [**Maps**](/docs/service-architecture-intelligence/maps/advanced-maps). + + + [**Distributed tracing**](/docs/apm/distributed-tracing/getting-started/introduction-distributed-tracing) est requis pour que **Dynamic Flow Map** fonctionne et il est activé par défaut pour tous les agents APM. Si les données ne sont pas visibles, assurez-vous que **Distributed tracing** est actif pour le nœud focal et l&apos;entité associée, et vérifiez que les données de tracing apparaissent dans New Relic. + + +## Explorez la carte de flux dynamique [#explore-dynamic-flow-map] + +Pour accéder au **Dynamic Flow Map**: + +1. Depuis **[one.newrelic.com](https://one.newrelic.com)**, ouvrez n’importe quel [service, infrastructure ou carte d’équipe](/docs/service-architecture-intelligence/maps/advanced-maps). +2. Pour ouvrir le **Dynamic Flow Map**, pointez sur un nœud et cliquez sur **View dynamic flow**. + +Vous pouvez également accéder **Dynamic Flow Map** depuis [**Transactions 360**](/docs/apm/transactions/workload-performance-monitoring/transaction-workloads/). Vous pouvez visualiser la carte d&apos;une transaction particulière indiquant les services concernés et le temps pris par chaque service. + +dynamic-flow-map + +
+ **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; APM &amp; Services &gt; Maps &gt; Dynamic Flow Map**:Carte de flux dynamique affichant les tendances en matière de traces, d&apos;anomalies et de performances. +
+ +Le **Dynamic Flow Map** montre les relations entre le nœud focal et l’entité environnante. Les services en amont sont représentés avec des bords pointant vers le nœud focal, tandis que les services en aval ont des bords pointant dans le sens inverse. Vous pouvez interagir avec la carte pour afficher les tendances de performances, les anomalies et d&apos;autres détails comme suit : + + + + Les anomalies sont affichées avec des bords et des points à code couleur à côté des nœuds de service, comme suit : + + * **Bordure bleue**: Problème de latence entre les services. + * **Bord rouge**: Erreur de signal entre les services. + * **Bord rayé bleu et rouge**: problème de latence et erreur de signal entre les services. + * **Point bleu à côté d'un nœud de service**: problème de latence dans le service. + * **Point rouge à côté d'un nœud de service**: Erreur de signal dans le service. + + Si un nœud présente des points d'anomalie à côté de lui, mais que le bord le reliant au nœud focal n'est pas codé par couleur, cela indique que les anomalies entre les nœuds ne sont pas corrélées. À partir des [tendances de performances](#performance-trends), vous pouvez consulter le graphique des séries chronologiques métriques pour confirmer que l&apos;anomalie s&apos;est produite à des moments différents pour les nœuds. + + + + Sur le **Dynamic Flow Map**, pour afficher les tendances de performances entre le nœud focal et un nœud connecté, cliquez sur celui qui l&apos;entoure. Les tendances de performances entre les nœuds apparaissent dans le panneau de droite, affichant les graphiques de séries chronologiques des métriques. + + Vous pouvez analyser les tendances des performances et gérer les nœuds comme suit : + + * Identifiez les modèles entre vos nœuds sélectionnés. + * Interagissez avec les graphiques de séries chronologiques en sélectionnant les nœuds situés en dessous. + * Afficher toutes les traces entre les nœuds sélectionnés. + * Attribuer la propriété des nœuds à des équipes spécifiques. + * Ajoutez une balise aux nœuds. + + + + Sur le **Dynamic Flow Map**, après avoir identifié un nœud présentant des problèmes de performances corrélés au nœud focal, vous pouvez étudier la trace entre eux. Pour afficher la trace, dans le panneau de droite, cliquez sur **See all traces**. En analysant la trace, vous pouvez identifier la cause première des problèmes de performances et prendre les mesures nécessaires pour les résoudre. + + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/service-architecture-intelligence/scorecards/getting-started.mdx b/src/i18n/content/fr/docs/service-architecture-intelligence/scorecards/getting-started.mdx new file mode 100644 index 00000000000..b1db10cffd1 --- /dev/null +++ b/src/i18n/content/fr/docs/service-architecture-intelligence/scorecards/getting-started.mdx @@ -0,0 +1,78 @@ +--- +title: Premiers pas avec les tableaux de bord +description: Découvrez comment créer et gérer des tableaux de bord dans New Relic One. +tags: + - Scorecards + - New Relic One + - service catalog + - service architecture intelligence +freshnessValidatedDate: never +translationType: machine +--- + + + Nous travaillons toujours sur cette fonctionnalité, mais nous aimerions que vous l'essayiez ! + + Cette fonctionnalité est actuellement fournie dans le cadre d'un programme d'aperçu conformément à nos [politiques de pré-sortie](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy). + + +Scorecards est une fonctionnalité conçue pour aider les organisations à adhérer à une stratégie d'ingénierie bien définie en fournissant une approche standardisée et structurée du développement de logiciels. Vous pouvez utiliser la fonctionnalité Scorecards de New Relic pour évaluer les performances d'une équipe ou d'un groupe par rapport à des règles prédéfinies et à des métriques personnalisées. Les tableaux de bord aident les organisations à adhérer à une stratégie d'ingénierie bien définie en fournissant une approche standardisée et structurée du développement de logiciels. En transformant les objectifs stratégiques en résultats mesurables, les tableaux de bord facilitent l’amélioration continue et la prise de décision éclairée. + +## Fonctionnalité clé [#key-features] + +En utilisant les tableaux de bord, vous pouvez : + +* Suivez et améliorez les performances dans différents domaines. +* Automatisez le suivi des mesures de conformité, réduisant ainsi l'effort manuel requis pour maintenir les normes. +* Utilisez des informations détaillées data-driven pour identifier les domaines à améliorer et prendre des décisions éclairées sur l'allocation des ressources et l'optimisation des processus. +* Attribuez la responsabilité des tâches de conformité à des équipes ou à des individus spécifiques, favorisant ainsi la responsabilité et la transparence. + +## Accéder aux tableaux de bord [#access-scorecards] + +Pour accéder aux tableaux de bord : + +1. connectez-vous à votre compte New Relic. +2. Accédez à **Toutes les fonctionnalités > Scorecards**. + +## Utilisation des tableaux de bord [#using-scorecards] + +Les tableaux de bord offrent différentes vues pour répondre à vos besoins : + +* Toutes les fiches d'évaluation +* Tableau de bord unique +* Vue des règles +* Vue d'équipe + +### Page Toutes les fiches d'évaluation [#all-scorecards] + +La page Tableaux de bord fournit une vue d'ensemble de tous les tableaux de bord pour offrir des informations détaillées sur le respect des normes d'ingénierie et les performances globales. Vous pouvez monitorer les indicateurs de performance sur plusieurs tableaux de bord et identifier les domaines qui nécessitent une action immédiate. Vous pouvez utiliser différents filtres et regrouper par options pour affiner votre recherche. + +Scorecards view + +### Vue d'un tableau de bord unique [#single-scorecard] + +Cette page fournit des informations détaillées sur des métriques et des règles spécifiques, y compris des données de performances historiques. Vous pouvez utiliser cette page pour : + +* Analysez les tendances des données historiques au fil du temps pour suivre les améliorations ou les baisses de performances. +* Consultez le score actuel qui est la moyenne de tous les scores des règles, représentant la conformité aux normes d'ingénierie. +* Affichez le score de chaque règle avec sa condition, sa portée et son statut d'évaluation. Accédez à des détails détaillés pour voir les vérifications spécifiques et les statuts de réussite/échec. + +Single Scorecards view + +### Vue des règles [#rule-view] + +Les règles sont les éléments de base des tableaux de bord, contenant des conditions de performance spécifiques. La vue des règles permet à l'utilisateur d'évaluer et de gérer des règles individuelles. Dans cette vue, vous pouvez afficher une liste de toutes les règles et leurs détails, y compris une description, une instruction NRQL et une portée. Évaluez l’entité par rapport à ces règles pour déterminer la conformité. + +Pour plus d'informations : + +* Créez des règles, reportez-vous [à Créer des règles de tableau de bord](/docs/service-architecture-intelligence/scorecards/managing-scorecards/#create-scorecard-rules). +* Gérer les règles, reportez-vous [à Gérer les règles](/docs/service-architecture-intelligence/scorecards/managing-scorecards/#update-rule). + +### Vue des équipes [#teams-view] + +La vue Équipes regroupe les données des tableaux de bord au niveau de l'équipe, offrant ainsi une perspective centrée sur l'équipe en matière de conformité et de performances. Dans la vue Équipes : + +* Le score de chaque équipe est calculé comme la moyenne des tableaux de bord associés, offrant un aperçu rapide du respect des normes. +* L'état des performances est classé par couleur ou par étiquette, comme Bon, En dessous de l'objectif et Nécessitant une attention particulière, pour signaler les domaines nécessitant une attention particulière. + +Scorecards teams view \ No newline at end of file diff --git a/src/i18n/content/fr/docs/service-architecture-intelligence/teams/teams.mdx b/src/i18n/content/fr/docs/service-architecture-intelligence/teams/teams.mdx new file mode 100644 index 00000000000..caf23cde14c --- /dev/null +++ b/src/i18n/content/fr/docs/service-architecture-intelligence/teams/teams.mdx @@ -0,0 +1,236 @@ +--- +title: Les équipes de New Relic +tags: + - New Relic teams + - Teams +metaDescription: Connect the entities you're monitoring to the teams who own them +freshnessValidatedDate: never +translationType: machine +--- + + + Nous travaillons toujours sur cette fonctionnalité, mais nous aimerions que vous l'essayiez ! + + Cette fonctionnalité est actuellement fournie dans le cadre d'un programme d'aperçu conformément à nos [politiques de pré-sortie](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy). + + +New Relic Teams vous permet de connecter l'entité que vous monitoring aux équipes qui en sont propriétaires. Lorsque vous pouvez facilement voir à qui appartient une entité, vous pouvez accélérer le dépannage, améliorer la collaboration en équipe et améliorer votre efficacité opérationnelle. + +En attribuant les différentes parties de votre système aux équipes qui les maintiennent, vous pouvez trouver l’équipe adaptée à chaque service, hôte ou autre entité. + +## Comment pouvez-vous utiliser Teams dans New Relic ? [#how-to-use-teams] + +Vous pouvez exploiter New Relic Teams à différents endroits sur la plateforme. Cela signifie que Teams est disponible lorsque vous en avez besoin pour contacter les propriétaires d'une entité spécifique. Voici quelques exemples de la manière dont vous pouvez exploiter la puissance de Teams : + + + + Lorsque vous consultez la page **Issues** dans **Alerts > Issues and Activity**, vous pouvez trouver les informations sur l&apos;équipe dans la section **Impacted entities** . + + Screenshot showing how to find team during incident + + + + Vous pouvez toujours trouver les informations sur la propriété de l’équipe dans l’en-tête d’une page d’entité. + + Screenshot showing how to find during navigation of site + + + + Lorsque vous regardez des cartes, vous pouvez survoler n'importe quelle entité pour afficher les détails de l'équipe. Vous pouvez également cliquer sur une entité pour ouvrir un volet de droite qui inclut les détails de l’équipe. + + Screenshot showing how to find owner in maps + + + + Lorsque vous êtes dans les **Catalogs**, vous pouvez afficher l’équipe ou les équipes attribuées à chaque entité. Pour accéder à la page du hub **Teams** , cliquez sur le **link**. + + Screenshot showing how to find owner in Catalogs + + Pour affiner les résultats du catalogue, vous pouvez également filtrer par équipe. + + Screenshot showing how to filter by team in Catalogs + + Vous pouvez enregistrer les modifications apportées UI en créant une vue enregistrée, comme expliqué dans la section [Personnaliser l'UI pour votre équipe](#customize-ui) . + + + + Lorsque vous êtes dans **All Entities**, vous pouvez filtrer par équipe pour affiner les résultats. + + Screenshot showing how to find owner in all entities + + + +## La page centrale de l'équipe [#team-hub-page] + +La page centrale « Équipe » est un espace centralisé pour toutes les informations essentielles de votre équipe. Il facilite la collaboration entre les membres de l’équipe et tient tout le monde informé des développements importants. Dans l'onglet **Overview**, vous trouverez : + +* Tous les problèmes actifs liés à l'entité appartenant à votre équipe qui ont été ouverts au cours des 3 derniers jours. +* Un résumé des [niveaux de service](/docs/service-level-management/intro-slm/) de votre équipe. +* Un résumé des statuts [de charge de travail](/docs/new-relic-solutions/new-relic-one/workloads/workloads-isolate-resolve-incidents-faster/) de votre équipe. +* Un résumé de la conformité [des tableaux de bord](/docs/service-architecture-intelligence/scorecards/getting-started) de votre équipe. +* Tous les groupes d'erreurs ([Errors Inbox](/docs/errors-inbox/getting-started/)) de votre équipe. +* La liste des membres de l'équipe qui composent cette équipe. +* La liste de tous les [dashboards](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/) importants pour un accès facile par tous les membres de l&apos;équipe. +* Liens vers la documentation, les runbooks et les guides de dépannage pertinents pour votre système de monitoring et vos applications. +* La liste des [Workflows](/docs/alerts/get-notified/incident-workflows/) de l&apos;équipe. +* La liste des [règles d'alerte](/docs/alerts/organize-alerts/create-edit-or-find-alert-policy/) de l&apos;équipe. + +Screenshot showing the team hub page + +Dans l'onglet **Entities** vous retrouverez toutes les entités que possède votre équipe et leur [état de santé](/docs/alerts/create-alert/examples/view-entity-health-status-find-entities-without-alert-conditions/). + +## Qui peut accéder à Teams ? [#teams-permissions] + +Pour garantir que tous les utilisateurs puissent toujours identifier la propriété de l’équipe, les équipes seront gérées au niveau de l’organisation plutôt qu’au niveau du compte. + +* \*\*Accès en lecture : \*\*Tous les utilisateurs ont un accès en lecture aux équipes, y compris aux métadonnées telles que les informations de contact, les membres de l'équipe et d'autres détails pertinents. +* \*\*Modifier les équipes : \*\* l’utilisateur avec le rôle **d’administrateur de produit de l’organisation** peut modifier les équipes. Il s&apos;agit d&apos;un nouveau rôle attribué à tous les utilisateurs qui ont actuellement le **rôle d'administrateur de tous les produits**. +* \*\*Créer et supprimer des équipes : un utilisateur avec **des paramètres administratifs** ou des rôles **de responsable d'organisation** ou **de responsable d'authentification** peut créer et supprimer des équipes. + + + Pour permettre à des utilisateurs supplémentaires de créer et de supprimer des équipes sans leur accorder les rôles de responsable d'organisation ou de responsable d'authentification, vous pouvez créer un [rôle personnalisé](/docs/apis/nerdgraph/examples/nerdgraph-manage-groups/#create-role). Veuillez vous assurer que les autorisations sont limitées à votre organisation et non à un compte. + + +## Créer des équipes [#create-teams] + +/\* Vous avez trois options pour créer des équipes dans l'UI: manuellement, à partir de groupes d'utilisateurs existants ou à partir de vos équipes GitHub. \*/ + + + Si vous préférez créer des équipes par programmation, vous pouvez également créer des équipes avec notre [API NerdGraph](/docs/apis/nerdgraph/examples/nerdgraph-teams-tutorial). + + +### Créer une équipe manuellement [#create-manually] + +Nous vous recommandons cette option si vous ne disposez pas déjà de données de propriété d’équipe et de service ailleurs. + +1. Accédez à **All Capabilities > Teams**. +2. Cliquez sur **Build manually**. + Screenshot showing how to start the manual process +3. Entrez un nom d'équipe. +4. Ajoutez une description et un alias pour votre équipe (facultatif). +5. Ajouter des membres de l'équipe (facultatif). +6. Cliquez sur **Create team**. + +### Créer des équipes à partir de groupes d'utilisateurs [#create-from-groups] + +Nous recommandons cette option si vous souhaitez garder vos équipes synchronisées avec vos groupes d’utilisateurs New Relic existants. + +Si les noms de vos groupes suivent un modèle reconnaissable qui distingue Teams, vous pouvez entièrement automatiser la synchronisation. Sinon, sélectionnez manuellement les groupes que vous souhaitez créer en tant qu’équipes. + +Assurez-vous qu'un rôle d'utilisateur comprenant les autorisations `authentication_domain.read.groups` vous est attribué, puis procédez comme suit : + +1. Accédez à **All Capabilities > Teams**. +2. Cliquez sur **Start with New Relic groups**. + Screenshot showing how to start with groups +3. Sélectionnez si vous souhaitez **Automate with a rule** ou **Select groups manually** + Screenshot showing options to start with groups + +**Option 1 : Automatiser avec une règle** + +1. Ajoutez une règle pour reconnaître les groupes à créer en tant qu’équipes, puis cliquez sur **Create rule**. + Screenshot showing how to add a rule +2. Cliquez sur **See teams** + Screenshot showing how to add a rule + Désormais, la création, la mise à jour et la suppression de Teams sont synchronisées au sein de vos groupes d'utilisateurs. + +**Option 2 : Sélection manuelle du groupe** + +1. Sélectionnez les groupes d’utilisateurs que vous souhaitez créer en tant qu’équipes et cliquez sur **Next**. + + Screenshot showing how to select groups + + Une fois la création des équipes terminée, vous revenez à la page **Overview** . + +Screenshot showing the teams overview page + +/\* ### Créer des équipes à partir des équipes GitHub \[#create-from-github] Nous recommandons cette option si vous souhaitez garder vos équipes New Relic synchronisées avec vos équipes GitHub existantes. 1. Accédez à \*\*Toutes les fonctionnalités > Équipes\*\*. 2. Cliquez sur \*\*Équipes GitHub, référentiel (repository) & utilisateur. Vous serez redirigé vers la page de configuration de l'intégration GitHub. <img title="capture d'écran montrant l'option GitHub" alt="capture d'écran montrant l'option GitHub" src="/images/create\_teams\_github.webp" /> \*/ + +## Attribuer la propriété de l'équipe [#assign-ownership] + +Il existe deux manières d'attribuer la propriété d'une équipe à une entité : + +* Automatiquement via la balise +* Manuellement via l'UI de New Relic + + + Vous pouvez également utiliser notre [API NerdGraph](/docs/apis/nerdgraph/examples/nerdgraph-teams-tutorial). + + +### Propriété via tag [#ownership-via-tags] + +Nous recommandons cette option si vous utilisez déjà des balises pour définir la propriété. New Relic analyse toutes vos entités à la recherche de ces tags et attribue l'entité aux bonnes équipes. + +Par exemple, si vous définissez la propriété de l'équipe via un `team` dans configuration de votre agent, vous pouvez activer cette option pour que ces entités soient affectées à l&apos;équipe correspondante. Si nous trouvons une tag `team:Frontend`, toute entité portant cette tag est affectée à votre équipe nommée `Frontend`. + +Cette fonctionnalité fonctionne sur tous vos comptes et données. + +Lorsque vous configurez une balise, vous pouvez également définir des alias d'équipe afin que nous puissions faire correspondre plusieurs valeurs clés à la même équipe. Par exemple, si l'équipe `Frontend` a `FE` comme alias, alors toute balise d&apos;entité avec `team:FE` est attribuée à votre équipe nommée `Frontend`. + +Procédez comme suit : + +1. Accédez à **All Capabilities > Teams > General**. +2. Sélectionnez l'option **Tags for assigning entities to teams**. + Screenshot showing how to start using tags for ownership +3. Sélectionnez la balise que vous souhaitez utiliser. +4. Si vous utilisez plusieurs noms d'équipe ou un autre identifiant pour la même équipe, accédez au hub Équipe pour configurer des alias. + Screenshot showing where to set up aliases + +Dans la liste des équipes, vous pouvez voir la balise que nous utilisons pour définir automatiquement la propriété de chacune des équipes existantes : + +Screenshot of overview page after tag setup + +### Propriété via configuration manuelle [#manual-ownership] + +Vous pouvez attribuer la propriété dans l’ UI sur la page du hub d’équipe ou dans les en-têtes d’entité. + +#### Dans la page du hub d'équipe [#ownership-via-hub] + +Complétez les éléments suivants pour attribuer la propriété : + +1. Accédez à la page du hub de l'équipe et cliquez sur **Entity management**: + Screenshot showing the entity management page +2. Sélectionnez votre entité. + Screenshot showing entity selection +3. Cliquez sur **Save**. + +#### Dans les en-têtes d'entité [#entity-headers] + +Vous pouvez également attribuer un propriétaire à une entité dans les en-têtes de la page de résumé de l’entité. + +Screenshot showing how to assign in header + +#### Dans les catalogues [#entity-headers] + +Vous pouvez également attribuer la propriété aux entrées du catalogue qui ne sont pas encore attribuées à une équipe. + +Screenshot showing how to assign in catalogs + +## Ajoutez des informations de contact et des ressources à votre équipe [#add-contacts] + +Pour ajouter des informations de contact, un dashboard et d’autres ressources d’équipe, accédez à **All Capabilities > Teams > your team > Settings**. + +Screenshot showing where to add contact details + +## Personnalisez l'UI pour votre équipe [#customize-ui] + +Vous pouvez filtrer la vue **All Entities** pour afficher uniquement l&apos;entité appartenant à votre équipe. + +1. Dans la barre de filtre d’entité, sélectionnez votre équipe dans la liste déroulante. Vos équipes apparaissent en haut de la liste déroulante **Team** pour un accès facile. + + Screen shot showing how to find your team in dropdown + +2. Enregistrez la nouvelle vue en cliquant sur **Save view** à côté du nom de la capacité en haut à gauche : + + Screenshot showing how to save the view + +3. Lorsque le nouveau menu apparaît, entrez un nom pour la vue, sélectionnez les autorisations et cliquez sur **Save** pour créer la vue : + + Screenshot showing where to name the view + + Une fois le processus terminé, la vue est automatiquement appliquée : + + Screenshot showing that the new view is set as default + + + Découvrez comment réaliser les mêmes tâches d'équipe à l'aide de GraphQL + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/get-started-with-streaming-video-&-ads.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/get-started-with-streaming-video-&-ads.mdx new file mode 100644 index 00000000000..275732ac804 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/get-started-with-streaming-video-&-ads.mdx @@ -0,0 +1,52 @@ +--- +title: Introduction à le monitoring des vidéos en streaming et des publicités +metaDescription: Enhance video and ad streaming performance with insights into quality of experience metrics. +freshnessValidatedDate: never +translationType: machine +--- + + + + Streaming Video & Ads intelligence fournit des outils pour monitorer et optimiser les performances du streaming vidéo et publicitaire grâce à des informations détaillées sur les métriques de qualité d'expérience (QoE). Dans le paysage médiatique actuel, offrir une expérience visuelle de haute qualité est essentiel pour réussir. Cette plateforme offre aux entreprises de médias et de divertissement une visibilité complète pour améliorer l'expérience de lecture et l'engagement des téléspectateurs. Intégrée à la plateforme New Relic, Streaming Video & Ads Intelligence vous permet de : + + * Monitorer les métriques vidéo et publicitaires QoE et configurer les alertes. + * Corrélez les données de votre stack pour identifier la cause première des problèmes de lecture. + * Suivez l'engagement des utilisateurs et les taux d'achèvement de la lecture des vidéos/annonces. + * Obtenez des informations détaillées sur les sessions utilisateur pour résoudre les problèmes de lecture. + + L'utilisation de ces fonctionnalités peut améliorer l'engagement des téléspectateurs, augmenter les revenus publicitaires et réduire le taux de désabonnement grâce à une optimisation continue de l'expérience de lecture. + + + + S'inscrire + + + + Installer des vidéos en streaming et des publicités + + + + Options d'installation + + + + + + A screenshot of data visualization using media monitoring + + + + + + An image showing the distributed tracing feature + + + + ## Principaux avantages + + * **Assurez une qualité d'expérience élevée (QoE) pour les vidéos/publicités**: analysez la fiabilité, l&apos;engagement et les mesures de qualité des vidéos/publicités pour maintenir une qualité de visionnage élevée. + * **Améliorez l'engagement des spectateurs**: monitorez les taux d&apos;achèvement des vidéos/publicités et les tendances de visionnage simultanées pour améliorer l&apos;engagement des spectateurs. + * **Obtenez une observabilité full-stack**: corrélez les données de votre stack pour identifier et résoudre efficacement les problèmes de distribution de vidéos/publicités. + * **Résoudre les problèmes de lecture**: visualisez les sessions utilisateur individuelles pour diagnostiquer et résoudre les problèmes de lecture vidéo et publicitaire. + + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/android/compatibility-requirements/media-agent-for-android.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/android/compatibility-requirements/media-agent-for-android.mdx new file mode 100644 index 00000000000..a092ee9b66e --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/android/compatibility-requirements/media-agent-for-android.mdx @@ -0,0 +1,35 @@ +--- +title: Compatibilité et exigences +tags: null +metaDescription: 'Discover how our Browser Logs feature captures real-time browser console logs to enhance observability, simplify debugging, and improve user experience.' +freshnessValidatedDate: never +translationType: machine +--- + +Voici la compatibilité et les exigences pour Media Agent pour Android : + + + + + + + + + + + + + + + + + +
+ Agent Android + + Versions +
+ ExoPlayer (Android) + + 1.1.0 +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/browser/compatibility-requirements/media-agent-for-browser.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/browser/compatibility-requirements/media-agent-for-browser.mdx new file mode 100644 index 00000000000..a08c665790d --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/browser/compatibility-requirements/media-agent-for-browser.mdx @@ -0,0 +1,105 @@ +--- +title: Compatibilité et exigences +tags: null +metaDescription: Compatibility and requirements for the Media Agent for Browser. +freshnessValidatedDate: never +translationType: machine +--- + +Voici la compatibilité et les exigences pour l'agent multimédia pour Browser: + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Agent Browser + + Versions +
+ Tiret + + 4.7.4 +
+ Vidéojs + + 7.17.0 +
+ HTML5 + + HTML5 +
+ Bitmovin + + 8.1.0 +
+ Shaka + + 4.11.2 +
+ Joueur JW + + 8.0.0 +
+ Akamai + + 2.68.16 +
+ Le joueur + + 3.0.0 +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/install-the-streaming-video-&-ads-agent.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/install-the-streaming-video-&-ads-agent.mdx new file mode 100644 index 00000000000..bfcdc413093 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/install-the-streaming-video-&-ads-agent.mdx @@ -0,0 +1,34 @@ +--- +title: Installer l'agent Streaming Video & Ads +metaDescription: Use the New Relic Streaming Video & Ads solution to gain deep visibility and actionable insights into real user experiences. +freshnessValidatedDate: never +translationType: machine +--- + +Pour installer l'agent vidéo, nous vous recommandons de suivre notre installation guidée. + +## Prérequis [#requirements] + +Avant d'installer l'agent vidéo, assurez-vous que vous disposez d'un [ID de compte](/docs/accounts/accounts-billing/account-setup/account-id) New Relic. + +## Installer l'agent vidéo [#installation] + +Pour commencer à diffuser des vidéos et des publicités en streaming, installez notre agent vidéo sur vos ressources multimédias en streaming. + + + + Allez à **[one.newrelic.com](https://one.newrelic.com) &gt; Integrations &amp; Agents &gt; Streaming Video &amp; Ads**. + + + + Sélectionnez un compte avec lequel vous souhaitez travailler dans la liste déroulante et cliquez sur **Continue**. + + + + ## Sélectionnez le type d'application de streaming [#select-streaming-app-type] + + * [Browser](/install/browser-media): monitorez les lecteurs vidéo dans vos applications de navigateur. + * [Mobile](/docs/streaming-video-&-ads/installation/mobile/get-started/): monitorez les lecteurs vidéo dans vos applications mobiles. + * [Roku](/docs/streaming-video-&-ads/installation/roku/get-started-with-roku): monitorez les lecteurs vidéo dans vos applications Roku. + + \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/ios/compatibility-requirements/media-agent-for-ios.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/ios/compatibility-requirements/media-agent-for-ios.mdx new file mode 100644 index 00000000000..bccf0d0bda5 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/ios/compatibility-requirements/media-agent-for-ios.mdx @@ -0,0 +1,35 @@ +--- +title: Compatibilité et exigences +tags: null +metaDescription: 'Discover how our Browser Logs feature captures real-time browser console logs to enhance observability, simplify debugging, and improve user experience.' +freshnessValidatedDate: never +translationType: machine +--- + +Voici la compatibilité et les exigences pour Media Agent pour iOS : + + + + + + + + + + + + + + + + + +
+ Agent iOS + + Versions +
+ AVPlayer (iOS) + + iOS 4.0 + +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/ad-tracking.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/ad-tracking.mdx new file mode 100644 index 00000000000..ca3ace06842 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/ad-tracking.mdx @@ -0,0 +1,121 @@ +--- +title: Suivi des publicités pour les applications Roku +tags: null +metaDescription: Learn how to track ad events in Roku applications using the New Relic Roku Agent. +freshnessValidatedDate: never +translationType: machine +--- + +L'agent vidéo Roku fournit monitoring des événements publicitaires via deux API publicitaires différentes : + +* [Framework publicitaire Roku (RAF)](https://developer.roku.com/en-gb/docs/developer-program/advertising/roku-advertising-framework.md) +* [Google IMA](https://developers.google.com/ad-manager/dynamic-ad-insertion/sdk/roku) + +## Installer le framework publicitaire Roku (RAF) + +Pour RAF, aucune étape supplémentaire n'est requise car le tracker est intégré au NRAgent. + +## Installer Google IMA + +Pour IMA, assurez-vous que les fichiers suivants sont inclus dans le répertoire du projet : + +``` +components/NewRelicAgent/trackers + IMATracker.brs + IMATracker.xml +source/ + IMATrackerInterface.brs +``` + +## Usage + +### Utilisation de la RAF + +Transmettez l’objet NRAgent (créé avec l’appel à `NewRelic(accountId, apiKey)`) à la tâche Annonces à l’aide d’un champ. Dans la tâche Annonces, effectuez les opérations suivantes : + +```brightscript +adIface = Roku_Ads() + +' Ad Iface setup code... + +logFunc = Function(obj = Invalid as Dynamic, evtType = invalid as Dynamic, ctx = invalid as Dynamic) + 'Call RAF tracker, passing the event and context + nrTrackRAF(obj, evtType, ctx) +End Function + +' m.top.nr is the reference to the field where we have the NRAgent object +adIface.setTrackingCallback(logFunc, m.top.nr) +``` + +Pour un exemple d'utilisation complet, consultez les fichiers `VideoScene.brs` (fonction `setupVideoWithAds()`) et `AdsTask.brs` dans le présent référentiel (repository). + +### Utilisation de l'IMA + + + + Créez l’objet IMA Tracker : + + ```brightscript + tracker = IMATracker(m.nr) + ``` + + Où `m.nr` est l&apos;objet NRAgent. + + + + Transmettez l'objet de suivi à la tâche IMA SDK à l'aide d'un champ et incluez le script `IMATrackerInterface.brs` dans le XML de la tâche. Dans la tâche, effectuez les opérations suivantes : + + ```javascript + m.player.adBreakStarted = Function(adBreakInfo as Object) + ' Ad break start code... + + ' Send AD_BREAK_START + nrSendIMAAdBreakStart(m.top.tracker, adBreakInfo) + End Function + + m.player.adBreakEnded = Function(adBreakInfo as Object) + ' Ad break end code... + + ' Send AD_BREAK_END + nrSendIMAAdBreakEnd(m.top.tracker, adBreakInfo) + End Function + + ' ... + + m.streamManager.addEventListener(m.sdk.AdEvent.START, startCallback) + m.streamManager.addEventListener(m.sdk.AdEvent.FIRST_QUARTILE, firstQuartileCallback) + m.streamManager.addEventListener(m.sdk.AdEvent.MIDPOINT, midpointCallback) + m.streamManager.addEventListener(m.sdk.AdEvent.THIRD_QUARTILE, thirdQuartileCallback) + m.streamManager.addEventListener(m.sdk.AdEvent.COMPLETE, completeCallback) + + Function startCallback(ad as Object) as Void + ' Send AD_START + nrSendIMAAdStart(m.top.tracker, ad) + End Function + + Function firstQuartileCallback(ad as Object) as Void + ' Send AD_QUARTILE (first) + nrSendIMAAdFirstQuartile(m.top.tracker, ad) + End Function + + Function midpointCallback(ad as Object) as Void + ' Send AD_QUARTILE (midpoint) + nrSendIMAAdMidpoint(m.top.tracker, ad) + End Function + + Function thirdQuartileCallback(ad as Object) as Void + ' Send AD_QUARTILE (third) + nrSendIMAAdThirdQuartile(m.top.tracker, ad) + End Function + + Function completeCallback(ad as Object) as Void + ' Send AD_END + nrSendIMAAdEnd(m.top.tracker, ad) + End Function + ``` + + Où `m.top.tracker` est l’objet de suivi transmis à la tâche. + + + +Pour un exemple d'utilisation complet, consultez les fichiers `VideoScene.brs` (fonction `setupVideoWithIMA()`) et `imasdk.brs`. \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/api-agent.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/api-agent.mdx new file mode 100644 index 00000000000..902a242eac2 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/api-agent.mdx @@ -0,0 +1,341 @@ +--- +title: Utilisation de l'API d'agent +tags: null +metaDescription: 'Detailed New Relic Roku Agent API, covering initialization, event logging, and metric recording for Roku applications. Includes function descriptions and usage examples.' +freshnessValidatedDate: never +translationType: machine +--- + +L'agent New Relic Roku est conçu pour monitorer les événements système et vidéo dans les applications Roku. Il fournit une API complète pour suivre différents types d'événements, notamment le système, la vidéo, les erreurs, les publicités et les événements personnalisés. Ce document décrit les méthodes API disponibles pour interagir avec l'agent New Relic Roku. + +## Référence API + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ + **If you want to...** + + + + **Use this API** + +
+ Initialiser l'agent. + + [NewRelic](/docs/streaming-video-&-ads/installation/roku/agent-api/newrelic) +
+ Démarrer le logging du système + + [Démarrage du système NewRelic](/docs/streaming-video-&-ads/installation/roku/agent-api/newrelicsystemstart) +
+ Commencer l'enregistrement vidéo. + + [NewRelicVideoDémarrer](/docs/streaming-video-&-ads/installation/roku/agent-api/newrelicvideostart) +
+ Arrêtez l'enregistrement vidéo. + + [NewRelicVideoArrêter](/docs/streaming-video-&-ads/installation/roku/agent-api/newrelicvideostop) +
+ Traiter le message de log du système. + + [nrProcessMessage](docs/streaming-video-&-ads/installation/roku/agent-api/nrprocessmessage) +
+ Définissez un attribut personnalisé pour l'événement. + + [nrSetCustomAttribute](/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetcustomattribute) +
+ Définissez une liste d'attributs personnalisés. + + [nrSetCustomAttributeList](/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetcustomattributelist) +
+ Envoyer un événement APP\_STARTED. + + [nrApp a démarré](/docs/streaming-video-&-ads/installation/roku/agent-api/nrappstarted) +
+ Envoyer un événement SCENE\_LOADED. + + [nrSceneChargé](/docs/streaming-video-&-ads/installation/roku/agent-api/nrsceneloaded) +
+ Envoyer un événement personnalisé. + + [nrSendCustomEvent](/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendcustomevent) +
+ Envoyer un événement système. + + [nrSendSystemEvent](/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendsystemevent) +
+ Envoyer un événement vidéo. + + [nrSendVideoEvent](/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendvideoevent) +
+ Envoyer un événement HTTP\_REQUEST. + + [nrEnvoyer une requête HTTP](/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendhttprequest) +
+ Envoyer un événement HTTP\_RESPONSE. + + [nrEnvoyer une réponse HTTP](/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendhttpresponse) +
+ Activer l'événement HTTP. + + [nrEnableHttpEvents](/docs/streaming-video-&-ads/installation/roku/agent-api/nrenablehttpevents) +
+ Désactiver l'événement HTTP. + + [nrDisableHttpEvents](/docs/streaming-video-&-ads/installation/roku/agent-api/nrdisablehttpevents) +
+ Définissez l'heure de récolte pour l'événement et le log. + + [nrSetHeure de récolte](/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetharvesttime) +
+ Définissez l'heure de récolte pour l'événement. + + [nrSetHarvestTimeEvents](/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetharvesttimeevents) +
+ Définissez l'heure de récolte du log. + + [nrSetHarvestTimeLogs](/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetharvesttimelogs) +
+ Définissez l'heure de récolte pour les métriques. + + [nrSetHarvestTimeMetrics](/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetharvesttimemetrics) +
+ Forcer événement immédiat et récolte log . + + [nrForceHarvest](/docs/streaming-video-&-ads/installation/roku/agent-api/nrforceharvest) +
+ Forcer la récolte de l'événement immédiat. + + [Événements nrForceHarvest](/docs/streaming-video-&-ads/installation/roku/agent-api/nrforceharvestevents) +
+ Forcer la récolte immédiate log . + + [nrForceHarvestLogs](/docs/streaming-video-&-ads/installation/roku/agent-api/nrforceharvestlogs) +
+ Mettre à jour la configuration de l'agent. + + [nrUpdateConfig](/docs/streaming-video-&-ads/installation/roku/agent-api/nrupdateconfig) +
+ Ajoutez un modèle de substitution de domaine. + + [nrAddDomainSubstitution](/docs/streaming-video-&-ads/installation/roku/agent-api/nradddomainsubstitution) +
+ Supprimer un modèle de substitution de domaine. + + [nrDelDomainSubstitution](/docs/streaming-video-&-ads/installation/roku/agent-api/nrdeldomainsubstitution) +
+ Enregistrer un message de log. + + [nrEnvoyer le log](/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendlog) +
+ Enregistrer une jauge métrique. + + [nrSendMetric](/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendmetric) +
+ Enregistrer un compte métrique. + + [nrSendCountMetrique](/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendcountmetric) +
+ Enregistrer une métrique récapitulative. + + [nrSendSummaryMetric](/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendsummarymetric) +
+ Définir un identifiant utilisateur. + + [définirUserId](/docs/streaming-video-&-ads/installation/roku/agent-api/setuserid) +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/newrelic.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/newrelic.mdx new file mode 100644 index 00000000000..1cb50896181 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/newrelic.mdx @@ -0,0 +1,94 @@ +--- +title: NewRelic +type: apiDoc +shortDescription: Créez un objet Agent New Relic. +tags: null +metaDescription: Build a New Relic Agent object. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js +NewRelic(account as String, apikey as String, region = "US" as String, activeLogs = false as Boolean) as Object +``` + +## Description + +Créez un objet Agent New Relic. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ compte + + Numéro de compte New Relic. +
+ clé API + + clé API. +
+ région + + (facultatif) Région de l'API New Relic, UE ou États-Unis. Par défaut, États-Unis. +
+ activeLogs + + (facultatif) Activer le log ou non. Par défaut Faux. +
+ +## Retour + +Nouvel objet Agent Relic. + +## Exemple + +```js + sub Main(aa as Object) + screen = CreateObject("roSGScreen") + m.port = CreateObject("roMessagePort") + screen.setMessagePort(m.port) + scene = screen.CreateScene("VideoScene") + screen.show() + + m.nr = NewRelic("ACCOUNT ID", "API KEY") +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/newrelicsystemstart.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/newrelicsystemstart.mdx new file mode 100644 index 00000000000..6c3460509dc --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/newrelicsystemstart.mdx @@ -0,0 +1,57 @@ +--- +title: Démarrage du système NewRelic +type: apiDoc +shortDescription: Démarre le logging du système. +tags: null +metaDescription: Starts system logging. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js +NewRelicSystemStart(port as Object) as Object +``` + +## Description + +Démarre le logging du système. + +## Arguments + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `port` + + Un port de messages. +
+ +## Retour + +L'objet `roSystemLog` créé. + +## Exemple + +```js + m.syslog = NewRelicSystemStart(m.port) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/newrelicvideostart.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/newrelicvideostart.mdx new file mode 100644 index 00000000000..6d7c94d715c --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/newrelicvideostart.mdx @@ -0,0 +1,67 @@ +--- +title: NewRelicVideoDémarrer +type: apiDoc +shortDescription: Commence l'enregistrement vidéo. +tags: null +metaDescription: Begins video logging. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js +NewRelicVideoStart(nr as Object, video as Object) as Void +``` + +## Description + +Démarre l'enregistrement vidéo. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `video` + + Un objet vidéo. +
+ +## Retour + +Rien. + +## Exemple + +```js + m.syslog = NewRelicSystemStart(m.port) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/newrelicvideostop.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/newrelicvideostop.mdx new file mode 100644 index 00000000000..350be5b4a56 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/newrelicvideostop.mdx @@ -0,0 +1,67 @@ +--- +title: NewRelicVideoArrêter +type: apiDoc +shortDescription: Arrête la session d'enregistrement vidéo initiée par NewRelicVideoStart. +tags: null +metaDescription: Stop video logging. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js +NewRelicVideoStop(nr as Object) as Void +``` + +## Description + +Arrête l'enregistrement vidéo. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `video` + + Un objet vidéo. +
+ +## Retour + +Rien. + +## Exemple + +```js + NewRelicVideoStop(m.nr) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nradddomainsubstitution.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nradddomainsubstitution.mdx new file mode 100644 index 00000000000..3309023ca44 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nradddomainsubstitution.mdx @@ -0,0 +1,80 @@ +--- +title: nrAddDomainSubstitution +type: apiDoc +shortDescription: Mises à jour de configuration +tags: null +metaDescription: Updates configuration +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrAddDomainSubstitution(nr as object, pattern as String, subs as String) as Void +``` + +## Description + +* Ajoutez un modèle correspondant pour l’attribut de domaine et remplacez-le par une autre chaîne. + * Chaque fois qu'un événement ou une métrique est généré avec un attribut de domaine, l'agent vérifiera s'il correspond à une expression régulière et appliquera la substitution spécifiée. +* Si aucun modèle n'est défini, le domaine URL sera utilisé sans changement. + * Elle s'applique à tous les événements et métriques contenant l'attribut "domaine". + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `pattern` + + Modèle d'expression régulière. +
+ `subs` + + Chaîne de substitution. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrAddDomainSubstitution(nr, "^.+\.my\.domain\.com$", "mydomain.com") +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrappstarted.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrappstarted.mdx new file mode 100644 index 00000000000..b92bc630ba7 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrappstarted.mdx @@ -0,0 +1,69 @@ +--- +title: nrApp a démarré +type: apiDoc +shortDescription: Définissez une liste d'attributs personnalisés à inclure dans l'événement. +tags: null +metaDescription: Set a custom attribute list to be included in the events. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrAppStarted(nr as Object, obj as Object) as Void +``` + +## Description + +Envoyer un événement APP\_STARTED de type RokuSystem. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `obj` + + L'objet envoyé comme argument de la sous-routine principale. +
+ +## Retour + +Rien. + +## Exemple + +```js + sub Main(aa as Object) + ... + nrAppStarted(m.nr, aa) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrdeldomainsubstitution.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrdeldomainsubstitution.mdx new file mode 100644 index 00000000000..004ac86aacc --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrdeldomainsubstitution.mdx @@ -0,0 +1,77 @@ +--- +title: nrDelDomainSubstitution +type: apiDoc +shortDescription: Supprimer un modèle correspondant créé avec `nrAddDomainSubstitution`. +tags: null +metaDescription: Delete a matching pattern created with `nrAddDomainSubstitution`. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrDelDomainSubstitution(nr as object, pattern as String) as Void +``` + +## Description + +Supprimer un modèle correspondant créé avec `nrAddDomainSubstitution`. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `pattern` + + Modèle d'expression régulière. +
+ `subs` + + Chaîne de substitution. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrDelDomainSubstitution(nr, "^.+\.my\.domain\.com$") +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrdisablehttpevents.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrdisablehttpevents.mdx new file mode 100644 index 00000000000..5519ef04225 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrdisablehttpevents.mdx @@ -0,0 +1,57 @@ +--- +title: nrDisableHttpEvents +type: apiDoc +shortDescription: Désactivez l'événement HTTP_CONNECT/HTTP_COMPLETE. +tags: null +metaDescription: Disable HTTP_CONNECT/HTTP_COMPLETE events. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + function nrDisableHttpEvents(nr as Object) as Void +``` + +## Description + +Désactivez l'événement HTTP\_CONNECT/HTTP\_COMPLETE. + +## Arguments + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrDisableHttpEvents(nr) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrenablehttpevents.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrenablehttpevents.mdx new file mode 100644 index 00000000000..1a5eccd7f4c --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrenablehttpevents.mdx @@ -0,0 +1,57 @@ +--- +title: nrEnableHttpEvents +type: apiDoc +shortDescription: Activer l'événement HTTP_CONNECT/HTTP_COMPLETE. +tags: null +metaDescription: Enable HTTP_CONNECT/HTTP_COMPLETE events. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + function nrEnableHttpEvents(nr as Object) as Void +``` + +## Description + +Activer l'événement HTTP\_CONNECT/HTTP\_COMPLETE. + +## Arguments + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrEnableHttpEvents(nr) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrforceharvest.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrforceharvest.mdx new file mode 100644 index 00000000000..f952e08d5b2 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrforceharvest.mdx @@ -0,0 +1,57 @@ +--- +title: nrForceHarvest +type: apiDoc +shortDescription: Récoltez l'événement et enregistrez-le immédiatement +tags: null +metaDescription: Harvest events and logs immediately +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrForceHarvest(nr as Object) as Void +``` + +## Description + +Récoltez l'événement et enregistrez-le immédiatement. Cela ne réinitialise pas le minuteur de récolte. + +## Arguments + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrForceHarvest(m.nr) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrforceharvestevents.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrforceharvestevents.mdx new file mode 100644 index 00000000000..895430c695f --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrforceharvestevents.mdx @@ -0,0 +1,57 @@ +--- +title: Événements nrForceHarvest +type: apiDoc +shortDescription: Récoltez l'événement immédiatement +tags: null +metaDescription: Harvest events immediately +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrForceHarvestEvents(nr as Object) as Void +``` + +## Description + +Récoltez l'événement immédiatement. Cela ne réinitialise pas le minuteur de récolte. + +## Arguments + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrForceHarvestEvents(m.nr) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrforceharvestlogs.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrforceharvestlogs.mdx new file mode 100644 index 00000000000..b5457de1f6c --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrforceharvestlogs.mdx @@ -0,0 +1,57 @@ +--- +title: nrForceHarvestLogs +type: apiDoc +shortDescription: Récoltez l'événement immédiatement +tags: null +metaDescription: Harvest events immediately +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrForceHarvestLogs(nr as Object) as Void +``` + +## Description + +Récoltez le log immédiatement. Cela ne réinitialise pas le minuteur de récolte. + +## Arguments + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrForceHarvestLogs(m.nr) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrprocessmessage.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrprocessmessage.mdx new file mode 100644 index 00000000000..bd20d5a6f03 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrprocessmessage.mdx @@ -0,0 +1,76 @@ +--- +title: nrProcessMessage +type: apiDoc +shortDescription: Traite les messages de log du système. +tags: null +metaDescription: 'Processes system log messages and sends corresponding events, returning true for system log messages.' +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrProcessMessage(nr as Object, msg as Object) as Boolean +``` + +## Description + +Recherchez un message système de log, traitez-le et envoie l'événement approprié. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `msg` + + Un message de type roSystemLogEvent. +
+ +## Retour + +True si msg est un message système de log, False sinon. + +## Exemple + +```js + while (true) + msg = wait(0, m.port) + if nrProcessMessage(m.nr, msg) = false + if type(msg) = "roPosterScreenEvent" + if msg.isScreenClosed() + exit while + end if + end if + end if + end while +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsceneloaded.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsceneloaded.mdx new file mode 100644 index 00000000000..e3e39c0d07a --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsceneloaded.mdx @@ -0,0 +1,67 @@ +--- +title: nrSceneChargé +type: apiDoc +shortDescription: Envoyer un événement SCENE_LOADED de type RokuSystem. +tags: null +metaDescription: Send a SCENE_LOADED event of type RokuSystem. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrSceneLoaded(nr as Object, sceneName as String) as Void +``` + +## Description + +Envoyer un événement SCENE\_LOADED de type RokuSystem. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `sceneName` + + Le nom de la scène. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrSceneLoaded(m.nr, "MyVideoScene") +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendcountmetric.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendcountmetric.mdx new file mode 100644 index 00000000000..ba8614f8402 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendcountmetric.mdx @@ -0,0 +1,97 @@ +--- +title: nrSendCountMetrique +type: apiDoc +shortDescription: Enregistrer un compte métrique. +tags: null +metaDescription: Record a count metric. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + function nrSendCountMetric(nr as Object, name as String, value as dynamic, interval as Integer, attr = invalid as Object) as Void +``` + +## Description + +Enregistrer un compte métrique. Mesure le nombre d'occurrences d'un événement pendant un intervalle de temps. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `name` + + Nom métrique +
+ `value` + + Valeur métrique. Nombre. +
+ `interval` + + Intervalle de temps métrique en millisecondes. +
+ `attr` + + (facultatif) attribut métrique. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrSendCountMetric(m.nr, "test", 250, 1500, {"one": 1}) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendcustomevent.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendcustomevent.mdx new file mode 100644 index 00000000000..412340259c4 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendcustomevent.mdx @@ -0,0 +1,89 @@ +--- +title: nrSendCustomEvent +type: apiDoc +shortDescription: Envoyer un événement personnalisé. +tags: null +metaDescription: Send a custom event. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrSendCustomEvent(nr as Object, eventType as String, actionName as String, attr = invalid as Object) as Void +``` + +## Description + +Envoyer un événement personnalisé. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `eventType` + + Type d'événement. +
+ `actionName` + + Nom de l'action. +
+ `attr` + + (facultatif) attribut éventail associatif. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrSendCustomEvent(m.nr, "MyEvent", "MY_ACTION") + attr = {"key0":"val0", "key1":"val1"} + nrSendCustomEvent(m.nr, "MyEvent", "MY_ACTION", attr) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendhttprequest.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendhttprequest.mdx new file mode 100644 index 00000000000..188740297c6 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendhttprequest.mdx @@ -0,0 +1,70 @@ +--- +title: nrEnvoyer une requête HTTP +type: apiDoc +shortDescription: Envoyer un événement HTTP_REQUEST de type RokuSystem. +tags: null +metaDescription: Send an HTTP_REQUEST event of type RokuSystem. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrSendHttpRequest(nr as Object, urlReq as Object) as Void +``` + +## Description + +Envoyer un événement HTTP\_REQUEST de type RokuSystem. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `urlReq` + + Requête d'URL, objet roUrlTransfer. +
+ +## Retour + +Rien. + +## Exemple + +```js + urlReq = CreateObject("roUrlTransfer") + urlReq.SetUrl(_url) + ... + nrSendHttpRequest(m.nr, urlReq) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendhttpresponse.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendhttpresponse.mdx new file mode 100644 index 00000000000..d8f35a594df --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendhttpresponse.mdx @@ -0,0 +1,80 @@ +--- +title: nrEnvoyer une réponse HTTP +type: apiDoc +shortDescription: Envoyer un événement HTTP_RESPONSE de type RokuSystem. +tags: null +metaDescription: Send an HTTP_RESPONSE event of type RokuSystem. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrSendHttpResponse(nr as Object, _url as String, msg as Object) as Void +``` + +## Description + +Envoyer un événement HTTP\_RESPONSE de type RokuSystem. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `_url` + + URL de la demande. +
+ `msg` + + Un message de type roUrlEvent. +
+ +## Retour + +Rien. + +## Exemple + +```js + msg = wait(5000, m.port) + if type(msg) = "roUrlEvent" then + nrSendHttpResponse(m.nr, _url, msg) + end if +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendlog.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendlog.mdx new file mode 100644 index 00000000000..a39b3ba42e5 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendlog.mdx @@ -0,0 +1,87 @@ +--- +title: nrEnvoyer le log +type: apiDoc +shortDescription: Enregistrez un log à l’aide de l’API New Relic Logs. +tags: null +metaDescription: Record a log using the New Relic Log API. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrSendLog(nr as Object, message as String, logtype as String, fields = invalid as Object) as Void +``` + +## Description + +Enregistrez un log à l’aide de l’API New Relic Logs. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `message` + + message de log. +
+ `logtype` + + type de log. +
+ `fields` + + (facultatif) Champs supplémentaires à inclure dans le log. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrSendLog(m.nr, "This is a log", "console", {"key": "value"}) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendmetric.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendmetric.mdx new file mode 100644 index 00000000000..f65af7c6a25 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendmetric.mdx @@ -0,0 +1,87 @@ +--- +title: nrSendMetric +type: apiDoc +shortDescription: Enregistrer une jauge métrique +tags: null +metaDescription: Record a gauge metric +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + function nrSendMetric(nr as Object, name as String, value as dynamic, attr = invalid as Object) as Void +``` + +## Description + +Enregistrer une jauge métrique. Représente une valeur qui peut augmenter ou diminuer avec le temps. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `name` + + Nom métrique +
+ `value` + + Valeur métrique. Nombre. +
+ `attr` + + (facultatif) attribut métrique. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrSendMetric(m.nr, "test", 11.1, {"one": 1}) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendsummarymetric.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendsummarymetric.mdx new file mode 100644 index 00000000000..4002e8ab1cd --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendsummarymetric.mdx @@ -0,0 +1,127 @@ +--- +title: nrSendSummaryMetric +type: apiDoc +shortDescription: Enregistrer une métrique récapitulative. +tags: null +metaDescription: Record a summary metric. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + function nrSendSummaryMetric(nr as Object, name as String, interval as Integer, counter as dynamic, m_sum as dynamic, m_min as dynamic, m_max as dynamic, attr = invalid as Object) as Void +``` + +## Description + +Enregistrer une métrique récapitulative. Utilisé pour signaler des données pré-agrégées ou des informations sur des événements discrets agrégés. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `name` + + Nom métrique +
+ `interval` + + Intervalle de temps métrique en millisecondes. +
+ `count` + + Nombre métrique. +
+ `m_sum` + + sommation de valeurs métriques. +
+ `m_min` + + Valeur minimale métrique. +
+ `m_max` + + Valeur maximale métrique. +
+ `attr` + + (facultatif) attribut métrique. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrSendSummaryMetric(m.nr, "test", 2000, 5, 1000, 100, 200) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendsystemevent.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendsystemevent.mdx new file mode 100644 index 00000000000..04f900e3946 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendsystemevent.mdx @@ -0,0 +1,79 @@ +--- +title: nrSendSystemEvent +type: apiDoc +shortDescription: 'Envoyez un événement système, tapez RokuSystem.' +tags: null +metaDescription: 'Send a system event, type RokuSystem.' +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrSendSystemEvent(nr as Object, actionName as String, attr = invalid) as Void +``` + +## Description + +Envoyez un événement système, tapez RokuSystem. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `actionName` + + Nom de l'action. +
+ `attr` + + (facultatif) attribut éventail associatif. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrSendSystemEvent(m.nr, "MY_ACTION") + attr = {"key0":"val0", "key1":"val1"} + nrSendSystemEvent(m.nr, "MY_ACTION", attr) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendvideoevent.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendvideoevent.mdx new file mode 100644 index 00000000000..54d754196f7 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsendvideoevent.mdx @@ -0,0 +1,79 @@ +--- +title: nrSendVideoEvent +type: apiDoc +shortDescription: 'Envoyez un événement vidéo, tapez VideoAction.' +tags: null +metaDescription: 'Send a video event, type VideoAction.' +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrSendVideoEvent(nr as Object, actionName as String, attr = invalid) as Void +``` + +## Description + +Envoyez un événement vidéo, tapez VideoAction. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `actionName` + + Nom de l'action. +
+ `attr` + + (facultatif) attribut éventail associatif. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrSendVideoEvent(m.nr, "MY_ACTION") + attr = {"key0":"val0", "key1":"val1"} + nrSendVideoEvent(m.nr, "MY_ACTION", attr) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetcustomattribute.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetcustomattribute.mdx new file mode 100644 index 00000000000..5009f7e0045 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetcustomattribute.mdx @@ -0,0 +1,88 @@ +--- +title: nrSetCustomAttribute +type: apiDoc +shortDescription: Définissez un attribut personnalisé à inclure dans l'événement. +tags: null +metaDescription: Set a custom attribute to be included in the events. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrSetCustomAttribute(nr as Object, key as String, value as Object, actionName = "" as String) as Void +``` + +## Description + +Définissez un attribut personnalisé à inclure dans l'événement. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `key` + + Nom de l'attribut. +
+ `value` + + Valeur d'attribut. +
+ `actionName` + + (facultatif) Action où l'attribut sera inclus. Par défaut toutes les actions. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrSetCustomAttribute(m.nr, "myNum", 123, "CONTENT_START") + nrSetCustomAttribute(m.nr, "myString", "hello") +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetcustomattributelist.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetcustomattributelist.mdx new file mode 100644 index 00000000000..354def76cfd --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetcustomattributelist.mdx @@ -0,0 +1,78 @@ +--- +title: nrSetCustomAttributeList +type: apiDoc +shortDescription: Définissez une liste d'attributs personnalisés à inclure dans l'événement. +tags: null +metaDescription: Set a custom attribute list to be included in the events. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrSetCustomAttributeList(nr as Object, attr as Object, actionName = "" as String) as Void +``` + +## Description + +Définissez une liste d'attributs personnalisés à inclure dans l'événement. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `attr` + + liste d'attributs, en tant qu'éventail associatif. +
+ `actionName` + + (facultatif) Action où l'attribut sera inclus. Par défaut toutes les actions. +
+ +## Retour + +Rien. + +## Exemple + +```js + attr = {"key0":"val0", "key1":"val1"} + nrSetCustomAttributeList(m.nr, attr, "CONTENT_HEARTBEAT") +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetharvesttime.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetharvesttime.mdx new file mode 100644 index 00000000000..aa0f39c587f --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetharvesttime.mdx @@ -0,0 +1,67 @@ +--- +title: nrSetHeure de récolte +type: apiDoc +shortDescription: 'Définissez l''heure de récolte, l''heure à laquelle les échantillons sont mis en mémoire tampon avant d''être envoyés à New Relic pour l''événement et le log.' +tags: null +metaDescription: 'Set harvest time, the time the samples are buffered before being sent to New Relic for both Events and Logs.' +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrSetHarvestTime(nr as Object, time as Integer) as Void +``` + +## Description + +Définissez l'heure de récolte, l'heure à laquelle les échantillons sont mis en mémoire tampon avant d'être envoyés à New Relic pour l'événement et le log. La valeur minimale est 60. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `time` + + Temps en secondes. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrSetHarvestTime(m.nr, 60) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetharvesttimeevents.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetharvesttimeevents.mdx new file mode 100644 index 00000000000..1a3dc56b1a4 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetharvesttimeevents.mdx @@ -0,0 +1,67 @@ +--- +title: nrSetHarvestTimeEvents +type: apiDoc +shortDescription: 'Définissez l''heure de récolte de l''événement, l''heure à laquelle l''événement est mis en mémoire tampon avant d''être envoyé à New Relic.' +tags: null +metaDescription: 'Set harvest time for Events, the time the events are buffered before being sent to New Relic.' +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrSetHarvestTimeEvents(nr as Object, time as Integer) as Void +``` + +## Description + +Définissez l'heure de récolte de l'événement, l'heure à laquelle l'événement est mis en mémoire tampon avant d'être envoyé à New Relic. La valeur minimale est 60. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `time` + + Temps en secondes. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrSetHarvestTimeEvents(m.nr, 60) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetharvesttimelogs.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetharvesttimelogs.mdx new file mode 100644 index 00000000000..05a392d361f --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetharvesttimelogs.mdx @@ -0,0 +1,67 @@ +--- +title: nrSetHarvestTimeLogs +type: apiDoc +shortDescription: 'Définissez l''heure de récolte du log, l''heure à laquelle le log est mis en mémoire tampon avant d''être envoyé à New Relic.' +tags: null +metaDescription: 'Set harvest time for Logs, the time the logs are buffered before being sent to New Relic.' +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrSetHarvestTimeLogs(nr as Object, time as Integer) as Void +``` + +## Description + +Définissez l'heure de récolte du log, l'heure à laquelle le log est mis en mémoire tampon avant d'être envoyé à New Relic. La valeur minimale est 60. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `time` + + Temps en secondes. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrSetHarvestTimeLogs(m.nr, 60) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetharvesttimemetrics.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetharvesttimemetrics.mdx new file mode 100644 index 00000000000..33080075829 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrsetharvesttimemetrics.mdx @@ -0,0 +1,67 @@ +--- +title: nrSetHarvestTimeMetrics +type: apiDoc +shortDescription: C'est le temps des vendanges pour les Métriques. +tags: null +metaDescription: Harvest time for Metrics. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrSetHarvestTimeMetrics(nr as Object, time as Integer) as Void +``` + +## Description + +Définissez l'heure de récolte du log, l'heure à laquelle le log est mis en mémoire tampon avant d'être envoyé à New Relic. La valeur minimale est 60. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `time` + + Temps en secondes. +
+ +## Retour + +Rien. + +## Exemple + +```js + nrSetHarvestTimeMetrics(m.nr, 60) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrupdateconfig.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrupdateconfig.mdx new file mode 100644 index 00000000000..5dba37c2b68 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/nrupdateconfig.mdx @@ -0,0 +1,68 @@ +--- +title: nrUpdateConfig +type: apiDoc +shortDescription: Mises à jour de configuration +tags: null +metaDescription: Updates configuration +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrUpdateConfig(nr as Object, config as Object) as Void +``` + +## Description + +Met à jour la configuration, comme l'URL du proxy réseau. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `config` + + Objet de configuration. +
+ +## Retour + +Rien. + +## Exemple + +```js + config = { proxyUrl: "http://example.com:8888/;" } + nrUpdateConfig(m.nr, config) +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/setuserId.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/setuserId.mdx new file mode 100644 index 00000000000..3c3b1320678 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/agent-api/setuserId.mdx @@ -0,0 +1,67 @@ +--- +title: nrSetUserId +type: apiDoc +shortDescription: Définit l'ID utilisateur. +tags: null +metaDescription: Sets userId. +freshnessValidatedDate: never +translationType: machine +--- + +## Syntaxe + +```js + nrSetUserId(userId as String) as Void +``` + +## Description + +Définit l'ID utilisateur. + +## Arguments + + + + + + + + + + + + + + + + + + + + + + + +
+ Arguments + + Description +
+ `nr` + + Nouvel objet Agent Relic. +
+ `userId` + + attribut +
+ +## Retour + +Rien. + +## Exemple + +```js + nrSetUserId(m.nr, "TEST_USER") +``` \ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/compatibility-requirements/media-agent-for-roku.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/compatibility-requirements/media-agent-for-roku.mdx new file mode 100644 index 00000000000..d7e00cf5e06 --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/compatibility-requirements/media-agent-for-roku.mdx @@ -0,0 +1,35 @@ +--- +title: Compatibilité et exigences +tags: null +metaDescription: 'Discover how our Browser Logs feature captures real-time browser console logs to enhance observability, simplify debugging, and improve user experience.' +freshnessValidatedDate: never +translationType: machine +--- + +Voici la compatibilité et les exigences pour Media Agent pour Roku : + + + + + + + + + + + + + + + + + +
+ Agent Roku + + Versions +
+ Roku + + 14.1.4 +
\ No newline at end of file diff --git a/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/enable-event-captures.mdx b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/enable-event-captures.mdx new file mode 100644 index 00000000000..5660e920a6e --- /dev/null +++ b/src/i18n/content/fr/docs/streaming-video-&-ads/installation/roku/enable-event-captures.mdx @@ -0,0 +1,121 @@ +--- +title: Activer les captures d'événements +tags: null +metaDescription: How to capture events using New Relic media agent in Roku devices. +freshnessValidatedDate: never +translationType: machine +--- + +L'agent multimédia New Relic pour les appareils Roku capture les événements qui se produisent pendant la lecture de contenu vidéo. Ce document fournit un aperçu des événements qui peuvent être capturés et comment les activer dans votre application Roku. + +Pour activer la capture automatique des événements, procédez comme suit : + + + + Dans votre fichier BrightScript principal (par exemple, Main.brs), appelez la fonction NewRelic et stockez l'objet renvoyé. + + + + Appelez `nrAppStarted` pour log l’événement de démarrage de l’application. + + + + (Facultatif) Utilisez `NewRelicSystemStart` et `NewRelicVideoStart` pour commencer à capturer le système et l&apos;événement vidéo. + + + + Dans la boucle d'attente principale, appelez `nrProcessMessage` pour gérer l&apos;événement système. + + + +## Exemple + +Vous trouverez ci-dessous un exemple de base d’intégration de l’agent New Relic dans une application Roku : + +### Main.brs + +```javascript + sub Main(aa as Object) + screen = CreateObject("roSGScreen") + m.port = CreateObject("roMessagePort") + screen.setMessagePort(m.port) + + 'Create the main scene that contains a video player + scene = screen.CreateScene("VideoScene") + screen.show() + + 'Init New Relic Agent + m.nr = NewRelic(“ACCOUNT ID“, “API KEY“) + + 'Send APP_STARTED event + nrAppStarted(m.nr, aa) + + 'Pass NewRelicAgent object to the main scene + scene.setField("nr", m.nr) + + 'Activate system tracking + m.syslog = NewRelicSystemStart(m.port) + + while (true) + msg = wait(0, m.port) + if nrProcessMessage(m.nr, msg) = false + 'It is not a system message captured by New Relic Agent + if type(msg) = "roPosterScreenEvent" + if msg.isScreenClosed() + exit while + end if + end if + end if + end while + end sub +``` + +### VideoScene.xml + +```xml + + + + + + + + + + + +