¿Qué son los modelos Granite?

Copiar URL

Granite es una serie de modelos de lenguaje de gran tamaño (LLM) creados por IBM para las aplicaciones empresariales. Los modelos base respaldan los casos prácticos de la inteligencia artificial generativa que utilizan lenguaje y código.

Los modelos Granite cuentan con la licencia Apache 2.0 de tecnología de open source, por lo cual los desarrolladores pueden probarlos, modificarlos y distribuirlos de manera gratuita. Gracias a ello, estos modelos son ideales para las empresas que utilizan datos confidenciales y desean ejecutar sus propios LLM en lugar de depender de un servicio externo.

Descubre el funcionamiento de Granite con Red Hat

Los modelos base se entrenan para que funcionen con un conocimiento general de los patrones, las estructuras y las representaciones del lenguaje. Este entrenamiento "básico" permite que los modelos aprendan a comunicar e identificar dichos patrones y se denomina inferencia de la inteligencia artificial. Constituye la fase operativa de esta tecnología, en la cual el modelo puede aplicar los conocimientos adquiridos en el entrenamiento a situaciones reales.

Los modelos de inteligencia artificial Granite de IBM cuentan con una base de conocimiento que puede perfeccionarse para llevar a cabo tareas específicas en prácticamente cualquier sector. Se entrenan con datos seleccionados que aportan transparencia al proceso.

Los LLM emplean la inteligencia artificial generativa para crear contenido nuevo a partir de las peticiones de los usuarios. En la actualidad, esta tecnología suele utilizarse para generar texto, imágenes, videos y código. Las empresas pueden usar modelos base de LLM para automatizar distintos aspectos de sus operaciones, como los chatbots de servicio de atención al cliente o las pruebas de código de software.

Otros modelos base de LLM que utilizan la inteligencia artificial generativa son los LLaMa de Meta (incluidos LLaMa 2 y LLaMa 3), Gemini de Google, Claude de Anthropic, GPT de OpenAI (conocido por su bot ChatGPT) y Mistral. Sin embargo, los modelos Granite se distinguen del resto por la transparencia en la divulgación de sus datos de entrenamiento, lo que genera confianza en sus usuarios y los hace más adecuados para entornos empresariales.

Recursos de Red Hat

Sí, algunos de los modelos de inteligencia artificial Granite están disponibles con una licencia open source, por lo cual los desarrolladores pueden acceder a ellos con facilidad y utilizarlos para nuevos diseños de manera local. Por lo tanto, pueden perfeccionar los modelos según sus objetivos particulares. Los usuarios incluso tienen acceso a la mayoría de los datos que se utilizaron en el entrenamiento de los modelos (PDF), lo cual les permite conocer su proceso de diseño y su funcionamiento.

Con respecto a los modelos Granite, la tecnología de open source representa un entorno en el que los desarrolladores pueden personalizar el modelo con sus propios datos y generar resultados específicos para cada usuario. No significa que los datos privados de cada persona estén a disposición de toda la comunidad open source. A diferencia de la inteligencia artificial de servicios web públicos, los modelos Granite no se entrenan de forma permanente. Por lo tanto, los datos ingresados en los modelos nunca se compartirán con Red Hat, IBM ni ningún otro usuario de Granite.

Las empresas de diversos sectores, como la salud o la construcción, pueden utilizar Granite de muchas maneras para automatizar sus operaciones a gran escala. Los modelos Granite pueden entrenarse en tareas del ámbito empresarial, como la generación de resúmenes, las respuestas a preguntas y las clasificaciones. Estos son algunos ejemplos:

  • Generación de código: los modelos de código Granite permiten utilizar el trabajo realizado por los desarrolladores o mejorarlo para que los procesos sean más eficientes. Por ejemplo, los desarrolladores pueden aprovechar la función de autocompletar; es decir, de la misma manera que nuestros teléfonos inteligentes completan oraciones automáticamente, el modelo puede finalizar una línea de código antes de que el desarrollador termine de escribirla.
  • Extracción de información: cuando necesites simplificar, resumir o explicar grandes conjuntos de datos, Granite puede identificar información y patrones precisos con rapidez para que no pierdas tiempo revisando todos esos datos. 
  • Arquitectura flexible: Granite puede integrarse a los sistemas actuales e implementarse en las instalaciones o en la nube. Sus interfaces están diseñadas para simplificar la implementación. Los modelos Granite están disponibles en varios tamaños, así que puedes elegir el que mejor se adapte a tus necesidades mientras gestionas los costos informáticos.
  • Soluciones personalizadas: si bien Granite se vende como modelo base, está diseñado para ser entrenado con información específica de cada empresa. Los usuarios pueden perfeccionarlo y adaptarlo a sus necesidades. Por ejemplo, si tu empresa se centra en dispositivos médicos, puedes enseñarle la jerga que se utiliza en el sector de la salud.
  • Baja latencia: cuando ejecutas un modelo Granite en tu propia infraestructura, puedes agilizar los tiempos de respuesta. El modelo proporciona datos de forma inmediata, así que es ideal para las operaciones esenciales. Siguiendo con el ejemplo del sector de la salud, la accesibilidad a los datos en tiempo real mejora la colaboración a distancia entre médicos y pacientes y la atención de casos urgentes.
  • Precisión alta: los desarrolladores pueden perfeccionar los modelos Granite para que realicen tareas específicas del sector y se conviertan en especialistas en cualquier materia. También pueden entrenarse en varios idiomas para garantizar la precisión y la accesibilidad en todo el mundo.
  • Modelos transparentes: al poder adquirir Granite con una licencia open source, los desarrolladores pueden conocer los procesos de diseño y entrenamiento de los modelos de inteligencia artificial, además de colaborar con una comunidad open source.

IBM lanzó varias series de modelos Granite para satisfacer las necesidades de las aplicaciones empresariales, que son cada vez más complejas. Estas series cuentan con diferentes categorías y convenciones de denominación.

Cada serie tiene un propósito diferente:

  • Granite for Language: estos modelos ofrecen un procesamiento del lenguaje natural (NLP) preciso en varios idiomas con una baja latencia.

    Descubre los casos prácticos de la inteligencia artificial generativa

  • Granite for Code: estos modelos están entrenados en más de 100 lenguajes de programación diferentes para admitir tareas de software de nivel empresarial.
  • Granite for Time Series: estos modelos se perfeccionan para la previsión de series temporales, un método de predicción de datos futuros a partir de datos del pasado.
  • Granite for GeoSpatial: IBM y la NASA crearon este modelo base que observa la Tierra y recopila datos satelitales a gran escala para poder hacer un seguimiento de los cambios medioambientales y abordarlos.

    Descubre los casos prácticos de la inteligencia artificial predictiva

En cada una de estas series, Granite ofrece modelos de distintos tamaños y especialidades. Por ejemplo, Granite for Language incluye:

  • Granite-7b-base, un modelo de lenguaje de propósito general para conversaciones y chats;
  • Granite-7b-instruct, que se especializa en seguir instrucciones para tareas.

Descubre los modelos Granite en Hugging Face

Red Hat® AI es nuestra cartera de productos de inteligencia artificial basada en soluciones que nuestros clientes ya conocen. Gracias a ellas, nuestros productos siguen siendo confiables, flexibles y adaptables.

Con Red Hat AI, las empresas logran:

  • adoptar la inteligencia artificial y generar innovaciones con ella de manera rápida;
  • simplificar el proceso de distribución de soluciones basadas en inteligencia artificial;
  • implementar recursos en cualquier entorno.

Con Red Hat AI, podrás acceder a los LLM Granite y a las funciones de uso de tu propio modelo. Además, nuestros consultores ofrecen soporte para los casos prácticos exclusivos de tu empresa a la hora de diseñar e implementar aplicaciones de inteligencia artificial generativa junto con cargas de trabajo fundamentales.

Descubre Red Hat AI

 

Accede a los LLM Granite con facilidad

Red Hat Enterprise Linux® AI es una plataforma de modelos base que se diseñó específicamente para desarrollar, probar y ejecutar los LLM Granite. Gracias a su enfoque open source, los costos de uso son bajos, por lo que puede acceder a ella una gran variedad de usuarios. Esta plataforma te permite realizar pruebas con tus propios datos y aprender sobre la marcha, así que es un buen punto de partida si aún no logras identificar los casos prácticos de tu empresa con seguridad. Red Hat Enterprise Linux® AI es una plataforma de modelos base que se diseñó específicamente para desarrollar, probar y ejecutar los LLM Granite. Gracias a su enfoque open source, los costos de uso son bajos, por lo que puede acceder a ella una gran variedad de usuarios.

Obtén más información sobre Red Hat Enterprise Linux AI

 

Comienza a utilizar InstructLab

Red Hat Enterprise Linux AI incluye InstructLab, un proyecto de la comunidad open source para mejorar los LLM. Las funciones de InstructLab permiten que desarrolladores con distintos niveles de habilidades y recursos colaboren con facilidad, lo que lo convierte en un punto de partida ideal para experimentar con modelos de inteligencia artificial. Por ejemplo, requiere mucha menos información generada por personas y muchos menos recursos informáticos durante el entrenamiento. Además, InstructLab no es un proyecto específico de un modelo determinado, así que puedes ajustarlo a cualquier LLM que elijas.

Aprende a entrenar un LLM en InstructLab con este video

Hub

El blog oficial de Red Hat

Obtenga la información más reciente sobre nuestro ecosistema de clientes, socios y comunidades.

Todas las versiones de prueba de los productos de Red Hat

Con las versiones de prueba gratuitas de nuestros productos, podrás adquirir experiencia práctica, prepararte para obtener una certificación o evaluar las soluciones para saber si son adecuadas para tu empresa.

Más información

¿Qué es el ajuste fino eficiente de parámetros (PEFT)?

El PEFT es un conjunto de técnicas que ajustan solo una parte de los parámetros que están dentro de un LLM para utilizar menos recursos.

Diferencias entre LoRA y QLoRA

La adaptación de bajo rango (LoRA) y la adaptación de bajo rango cuantificada (QLoRA) son técnicas para entrenar modelos de inteligencia artificial.

Los vLLM

Los vLLM son conjuntos de código open source que permiten que los modelos de lenguaje realicen cálculos de manera más eficiente.

IA/ML: lecturas recomendadas

Artículos relacionados