Skip to content
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
Original file line number Diff line number Diff line change
Expand Up @@ -12,19 +12,34 @@ translationType: machine
Esta característica se proporciona actualmente como parte de un programa de vista previa de conformidad con nuestras [políticas de prelanzamiento](/docs/licenses/license-information/referenced-policies/new-relic-pre-release-policy).
</Callout>

New Relic AI emplea el modelo de lenguaje extenso (LLMs) y la plataforma de datos de New Relic para ayudarlo a comprender su sistema y cómo obtener mejor información valiosa sobre el rendimiento de esos sistemas. Le permite hacer preguntas, solucionar problemas y explorar telemetry data empleando un lenguaje sencillo.
To provide more context-specific answers, New Relic AI can use a technique called Retrieval Augmented Generation (RAG) through the New Relic AI knowledge connector. While New Relic AI LLMs have a vast general knowledge, RAG enhances their responses.

Para proporcionar respuestas más específicas del contexto, New Relic AI puede emplear una técnica llamada generación aumentada por recuperación (RAG) a través del conector de conocimiento New Relic AI. Si bien los LLM básicos tienen un vasto conocimiento general, RAG mejora sus respuestas recuperando información relevante de sus fuentes de datos externas.
By setting up the New Relic AI knowledge connector, you can expect tangible outcomes such as faster incident resolution, more accurate and context-aware AI responses, and reduced manual searching across multiple documents. This unified approach helps your team make better decisions and respond to issues more efficiently.

## Cómo funciona
## Use cases and value

El conector de conocimiento de New Relic AI integra su conocimiento interno con el poder analítico de New Relic AI a través del siguiente proceso de tres pasos:
The following examples show how the knowledge connector integration helps tackle challenges like fragmented documentation and slow incident response by surfacing relevant information.

* **Índice:** El primer paso es conectar su contenido y bases de conocimiento, como Confluence, a la plataforma New Relic AI. Una vez conectado, el conector de conocimiento realizará una indexación inicial de sus documentos. Puede configurar este proceso para que se ejecute de forma recurrente, lo que garantiza que New Relic AI siempre tenga acceso a la información más actualizada a medida que sus documentos evolucionan.
* **Recuperación:** cuando un usuario hace una pregunta en New Relic AI, el sistema busca en el contenido indexado información relevante para la consulta del usuario. Este paso garantiza que el contexto se extraiga directamente de su documentación interna confiable.
* **Generación:** Finalmente, el sistema combina la información recuperada con las poderosas capacidades generativas del LLM subyacente. Esta síntesis produce una respuesta integral y adaptada al contexto, basada en sus datos específicos y sus mejores prácticas.
<CollapserGroup>
<Collapser id="retro-docsearch-tool" title="Búsqueda de documentos retro">
When a critical incident occurs, you face a time-consuming investigation because historical context is fragmented across multiple sources like Confluence and runbooks.

The knowledge connector integrates all of these disparate sources, transforming the Retro DocSearch tool into a powerful historical intelligence engine that provides all the context in one place. This allows the tool to:

* Provide an immediate summary of an original incident&apos;s root cause.
* Present specific actionable steps from the runbook that resolved the issue.
* Identify the names of the experts or teams who solved it before.
</Collapser>

Este enfoque RAG mejora significativamente la precisión y la relevancia de las respuestas, reduciendo la probabilidad de respuestas genéricas o alucinadas.
<Collapser id="what-happened-previously" title="What happened previously">
When an IT issue reoccurs, you&apos;ll often have to spend valuable time trying to figure out if it has happened before. Your historical context is often scattered across separate retrospective or postmortem documents, which can make it difficult to quickly find the information you need to resolve a recurring incident.

By leveraging RAG, the New Relic AI platform stores information from your existing retrospective or postmortem documents for future reference. This helps you save valuable time during an incident. The What happened previously widget, with RAG implementation, allows you to:

* Quickly find relevant information and learn from previous incidents.
* Get a summary of similar past issues, along with links to the retrospective documents for detailed analysis.
</Collapser>
</CollapserGroup>

## Característica clave

Expand All @@ -41,17 +56,34 @@ Con el conector de conocimiento New Relic AI, puedes:
* &quot;Muéstrame el runbook para un error `database connection limit exceeded`.&quot;

<Callout variant="important">
En este momento, todos los documentos indexados pueden ser recuperados por todos los usuarios dentro de la cuenta New Relic de su organización. Antes de comenzar a indexar, cerciorar de que los documentos que desea conectar cumplan con sus políticas internas de seguridad de los datos y privacidad para el uso de los servicios.
At this time, all indexed documents can be retrieved by all users within your organization&apos;s New Relic account. Please verify that only appropriate content is indexed, as there&apos;s currently no option to restrict access or redact information after indexing.
</Callout>

## Cómo funciona

<img title="High-level visual of Knowledge connector" alt="High-level visual of Knowledge connector" src="/images/High-Level Visual Overview of the New Relic AI Knowledge Connector.webp" />

The knowledge connector securely integrates with your content and knowledge bases, such as Confluence, to enhance New Relic AI&apos;s responses with your specific organizational knowledge. The process follows these steps:

* **Index:** Once your knowledge bases are connected to the New Relic AI platform, the knowledge connector performs an initial indexing of your documents. You can configure this process to run on a recurring basis, ensuring that New Relic AI always has access to the most up-to-date information as your documents evolve.

* **Retrieval:** When you ask a question in New Relic AI, the system searches the indexed content for the most relevant information. This step ensures that the context is pulled directly from your trusted, internal documentation.

* **Generación:** Finalmente, el sistema combina la información recuperada con las poderosas capacidades generativas del LLM subyacente. Esta síntesis produce una respuesta integral y adaptada al contexto, basada en sus datos específicos y sus mejores prácticas.

If a query doesn&apos;t require your organizational knowledge, New Relic AI will generate an answer using the underlying LLM&apos;s vast general knowledge. In both cases, the goal is to provide you with the most relevant and accurate information possible.

## Requisitos previos

Para comenzar a emplear el conector de conocimiento New Relic AI :
Before you begin using the New Relic AI knowledge connector, ensure that:

* **Habilitar New Relic AI:** antes de poder configurar el conector de conocimiento, New Relic AI debe estar habilitado para su cuenta.
* **Configurar licencias de usuario para indexar:** para gestionar qué usuarios pueden indexar fuentes de datos (lo que puede tener participaciones de facturación futuras), debe otorgar las licencias adecuadas. El usuario responsable de configurar y gestionar los conectores de conocimiento necesitará el rol de “Administrador de producto de la organización”.
* Only documents suitable for organization-wide access are indexed.
* Sensitive information is redacted.
* All the documents to be indexed comply with your organization&apos;s internal data security and privacy policies.
* New Relic AI is enabled for your account.
* Appropriate user permissions are configured for indexing (you&apos;ll need the “Org Product Admin” role, which allows you to perform actions—such as set up and manage the knowledge connectors—that may have future billing implications).

Tienes dos opciones para asignar este rol:
You have two options to assign the Org Product Admin role:

* **Aplicar a un grupo de usuarios existente:** agregue el rol de administrador de producto de la organización a un grupo existente de usuarios que serán responsables de gestionar los conectores de conocimiento.
* **Crear un grupo dedicado:** para un control más granular, cree un nuevo grupo de usuarios específicamente para este propósito y asigne el rol de administrador de producto de la organización a ese grupo.
Expand Down
Loading
Loading