{"id":934,"date":"2024-02-10T05:45:45","date_gmt":"2024-02-10T05:45:45","guid":{"rendered":"https:\/\/catedra.ai\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/"},"modified":"2024-05-16T09:31:11","modified_gmt":"2024-05-16T09:31:11","slug":"como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas","status":"publish","type":"post","link":"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/","title":{"rendered":"C\u00f3mo adaptar modelos masivos de lenguaje a tus necesidades espec\u00edficas"},"content":{"rendered":"\n<p>El campo de la Inteligencia Artificial (IA) ha sido testigo este \u00faltimo a\u00f1o de un aumento sin precedentes en el uso de la IA generativa gracias a la adopci\u00f3n generalizada de modelos masivos de lenguaje (MML) para una infinidad de tareas. Desde funciones de resumen autom\u00e1tico o reescritura de texto hasta tareas m\u00e1s complejas, los MML se han convertido en la soluci\u00f3n ideal para retos muy diversos. <\/p>\n\n<p><br\/>Sin embargo, para aprovechar realmente todo su poder, a menudo es necesario lo que t\u00e9cnicamente se conoce como \u201caterrizar\u201d estos modelos; es decir, personalizarlos para que satisfagan los requisitos espec\u00edficos de cada caso. Algunas t\u00e9cnicas para hacerlo son las que se conocen con los t\u00e9rminos ingleses de prompting, fine-tuning y retrieval augmented generation (RAG). Las t\u00e9cnicas de prompting y fine-tuning difieren de RAG porque implican instruir el modelo en el \u00abc\u00f3mo\u00bb (es decir, en c\u00f3mo realizar mejor una tarea), mientras que RAG le instruye en el \u00abqu\u00e9\u00bb (qu\u00e9 debe saber para entender y resolver cuestiones sobre un dominio determinado). En este art\u00edculo, nos centraremos en las dos primeras t\u00e9cnicas, explicando c\u00f3mo las pod\u00e9is incorporar en vuestros proyectos para elevarlos a niveles superiores de calidad, rendimiento y usabilidad.   <\/p>\n\n<h2 class=\"wp-block-heading\"><br\/>Prompting vs.fine-tuning<\/h2>\n\n<p><br\/>El prompting consiste en guiar el comportamiento del modelo proporcion\u00e1ndole instrucciones (posiblemente acompa\u00f1adas de ejemplos) que indican el tipo de resultado que se espera. Es ideal cuando la tarea a realizar permite una aproximaci\u00f3n general y no hay necesidad de profundizar en detalles demasiado espec\u00edficos o t\u00e9cnicos.  <br\/><\/p>\n\n<p>Por el contrario, el fine-tuning es una aproximaci\u00f3n m\u00e1s espec\u00edfica en la que el modelo se entrena utilizando un conjunto de datos muy concretos y enfocados al caso de uso. Es la mejor opci\u00f3n cuando la tarea en cuesti\u00f3n exige un resultado muy particular (por ejemplo a nivel de estructura formal), un conocimiento profundo del dominio o una adaptaci\u00f3n a una industria concreta. Esta t\u00e9cnica requiere de con conjuntos de datos de un cierto volumen para asegurar variedad y, por tanto, evitar la sobreadaptaci\u00f3n del modelo (en ingl\u00e9s, over-fitting), que ocurre cuando este aprende de manera tan fiel los patrones que existen en los datos de entrenamiento, que es incapaz de generalizar y por tanto falla con datos nuevos que no ha visto y que son diferentes de los aprendidos.  <\/p>\n\n<p>La siguiente tabla detalla las diferencias principales entre estos dos enfoques:<\/p>\n\n<figure class=\"wp-block-image size-full\"><img fetchpriority=\"high\" decoding=\"async\" width=\"752\" height=\"447\" src=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-103421.png\" alt=\"\" class=\"wp-image-754\" srcset=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-103421.png 752w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-103421-300x178.png 300w\" sizes=\"(max-width: 752px) 100vw, 752px\" \/><\/figure>\n\n<h2 class=\"wp-block-heading\">Aplicaci\u00f3n de ejemplo<\/h2>\n\n<p><br\/>Analizaremos las implicaciones que tiene utilizar cada una de estas dos t\u00e9cnicas tomando como caso de uso un proyecto de <strong>implementaci\u00f3n de una interfaz de lenguaje natural<\/strong> que permite interactuar con aplicaciones m\u00f3viles simplemente pasando \u00f3rdenes de voz. Se trata de un proyecto que no busca s\u00f3lo mejorar el grado de usabilidad de las aplicaciones, sino contribuir hacia la inclusividad y la accesibilidad tecnol\u00f3gica para todos. <\/p>\n\n<p>Una interfaz ling\u00fc\u00edstica de este tipo incluye, a grandes rasgos, una <strong>herramienta de conversi\u00f3n de voz a texto<\/strong> y un <strong>componente de comprensi\u00f3n del lenguaje natural (CLN).<\/strong> Este componente CLN es la parte m\u00e1gica que interpreta las intenciones de los usuarios y las convierte en una representaci\u00f3n estructurada, lista para ser ejecutada por el componente backend de la aplicaci\u00f3n. Pero, \u00bfc\u00f3mo funciona todo esto? <\/p>\n\n<h2 class=\"wp-block-heading\"><br\/>Explotando el potencial de los MML<\/h2>\n\n<p><br\/>Para que nuestro componente CLN sea inteligente y adaptable, recurrimos a un MML Aqu\u00ed es donde est\u00e1 la verdadera magia. Un modelo bien aterrizado en las especificidades de la tarea ser\u00e1 capaz de transformar la forma en que los usuarios interact\u00faan con sus aplicaciones m\u00f3viles. Pero para poder aterrizar, o personalizar, un MML de forma exitosa es necesario un proceso que pasa por diversas fases, tal y como se ilustra en la siguiente figura: an\u00e1lisis de la tarea, creaci\u00f3n de los datos para instruir el modelo (ya sea \u200b\u200bv\u00eda prompting o fine-tuning) y, finalmente, implementaci\u00f3n del modelo aterrizado. Dejaremos este \u00faltimo paso para una pr\u00f3xima publicaci\u00f3n (por lo tanto, \u00a1estad atentos!) y nos centraremos en los dos primeros.     <\/p>\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" width=\"987\" height=\"424\" src=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig4_EN.png\" alt=\"\" class=\"wp-image-756\" srcset=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig4_EN.png 987w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig4_EN-300x129.png 300w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig4_EN-768x330.png 768w\" sizes=\"(max-width: 987px) 100vw, 987px\" \/><\/figure>\n\n<h2 class=\"wp-block-heading\">Paso 1. An\u00e1lisis de la tarea <\/h2>\n\n<p><br\/>En primer lugar es imprescindible analizar de forma exhaustiva las especificidades de la tarea que el modelo debe aprender. Concretamente, es necesario entender las complejidades ling\u00fc\u00edsticas y de dominio que comporta. <br\/><br\/><strong>Complejidad ling\u00fc\u00edstica.<\/strong> Conviene tener en cuenta los idiomas a incluir en el proyecto. \u00bfSon lenguas con una gran cobertura digital y, por tanto, podemos asumir que ya est\u00e1n ampliamente representadas en el MML de base? Tambi\u00e9n: \u00bfson lenguas similares y, por tanto, podemos pensar en la posibilidad de compartir los mismos datos a la hora de aterrizar el modelo?  <br\/><br\/><strong>Complejidad del dominio.<\/strong> Tambi\u00e9n es necesario analizar la dificultad de la tarea a entrenar. \u00bfCu\u00e1l debe ser el nivel de complejidad de los datos de entrenamiento? \u00bfC\u00f3mo podemos estructurarlos para que el backend de la aplicaci\u00f3n pueda ejecutarse correctamente? Para nuestro ejemplo de interfaz de accesibilidad, esto implicar\u00eda determinar los distintos intents (o intenciones) de usuario que queremos cubrir, sus par\u00e1metros y cualquier otro aspecto relacionado. Por ejemplo, ser\u00eda relevante aqu\u00ed pensar si es suficiente con establecer un \u00fanico intent para calendarizar un evento o, por el contrario, hay que diferenciar entre dos en funci\u00f3n de si se invita a otras personas o no. Igualmente, convendr\u00eda determinar los elementos a distinguir en un intent de calendarizaci\u00f3n de eventos (p.ej., organizador, asistentes, fecha y hora, duraci\u00f3n, ubicaci\u00f3n, t\u00edtulo), etc.     <br\/><br\/>Este an\u00e1lisis ayuda a dise\u00f1ar el proceso de aterrizaje del modelo y gu\u00eda la elecci\u00f3n de la soluci\u00f3n tecnol\u00f3gica m\u00e1s adecuada: prompting, fine-tuning o una opci\u00f3n h\u00edbrida que combine ambas t\u00e9cnicas.<br\/><br\/>Imaginemos que en el caso de uso que nos ocupa existen dos funcionalidades que queremos desarrollar. Por un lado, nos interesa tener un paso que se encargue de procesar texto complejo (esto es, que incluye varios intents), como:  <br\/><br\/><em>Responde el \u00faltimo mensaje de whatsapp de Maria con un pulgar de ok, reenv\u00edalo al chat del equipo y despu\u00e9s empieza a reproducir el v\u00eddeo que he recibido de Pau<\/em><br\/><br\/>y lo divida en instrucciones independientes; p.ej., de forma esquem\u00e1tica:1. responder al mensaje; 2, reenviarlo; 3. reproducir el v\u00eddeo. Por otro lado, queremos que el MML aprenda a interpretar pedidos de usuario, que pueden ser de tipo muy diverso, y que los represente seg\u00fan el esquema que requiere el backend.    <br\/><br\/>La soluci\u00f3n tecnol\u00f3gica que elegiremos es clara: mientras que la primera funcionalidad se puede entrenar simplemente con prompting, la segunda implica un grado de complejidad que s\u00f3lo se puede gestionar recurriendo al fine-tuning (en la secci\u00f3n siguiente justificaremos el porqu\u00e9 con m\u00e1s detalle). Optamos pues por un enfoque h\u00edbrido que combina ambas t\u00e9cnicas.  <br\/><\/p>\n\n<h2 class=\"wp-block-heading\">2. Desarrollo de los datos <\/h2>\n\n<p><br\/>Una vez analizada la tarea y determinado el enfoque tecnol\u00f3gico a seguir, el siguiente paso es desarrollar de manera eficaz los recursos necesarios que nos permitir\u00e1n personalizar el modelo.<\/p>\n\n<h3 class=\"wp-block-heading\">Ecosistema de prompting<\/h3>\n\n<p><br\/>El prompting es un proceso de ensayo y error que se basa en un conjunto de instrucciones (llamado prompt) para instruir el modelo.Opcionalmente, tambi\u00e9n puede a\u00f1adir ejemplos de entrada y salida de lo que espera. La figura 5 lo ilustra con un ejemplo muy sencillo para instruir al modelo a convertir \u00f3rdenes de calendarizaci\u00f3n de eventos en estructuras JSON. .  <\/p>\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" width=\"755\" height=\"490\" src=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig5_ALL.png\" alt=\"\" class=\"wp-image-757\" srcset=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig5_ALL.png 755w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig5_ALL-300x195.png 300w\" sizes=\"(max-width: 755px) 100vw, 755px\" \/><\/figure>\n\n<p>El entorno de desarrollo para la ingenier\u00eda de prompts es bastante sencillo, pues. Pide un conjunto de scripts (o elementos cortos de software) para iterar de forma r\u00e1pida sobre diferentes versiones del prompt y realizar el testeo del resultado en cada iteraci\u00f3n, una posibilidad que est\u00e1 al alcance de muchas empresas, incluidas aquellas con recursos t\u00e9cnicos limitados.<br\/>Sin embargo, como ya se ha mencionado, el prompting no es la soluci\u00f3n indicada para tareas con un nivel significativo de complejidad. Concretamente, en tareas de generaci\u00f3n de anotaci\u00f3n o estructuras JSON, como en el ejemplo anterior, es muy probable que el resultado no valide respecto del esquema de representaci\u00f3n. El modelo puede actuar de forma creativa devolviendo resultados no deseados, como la introducci\u00f3n de atributos inventados, una reestructuraci\u00f3n de la jerarqu\u00eda o la omisi\u00f3n de valores obligatorios. El prompting no es pues la mejor opci\u00f3n para nuestra tarea de CNL, aunque puede utilizarse para funciones m\u00e1s simples, como identificar y separar los varios intents que puede haber en una misma frase \u2013 como en el ejemplo de antes: Responde el \u00faltimo mensaje de whatsapp de Maria con un pulgar de ok, reenv\u00edalo al chat del equipo y despu\u00e9s empieza a reproducir el v\u00eddeo que he recibido de Pau.   <\/p>\n\n<h2 class=\"wp-block-heading\"><br\/>Ajuste del ecosistema de datos<\/h2>\n\n<p><br\/>Los requisitos de entorno t\u00e9cnico son m\u00e1s exigentes en el caso del fine-tuning, que se emplea para aterrizar los MML en casos de usos complejos y, por tanto, necesita datos mucho m\u00e1s sofisticados. Para nuestra interfaz CLN, los datos que necesitamos son frases que expresen posibles \u00f3rdenes de usuario acompa\u00f1ados de sus anotaciones; es decir, de sus representaciones estructuradas. Estas anotaciones deben satisfacer un cierto grado de calidad y coherencia para garantizar el m\u00ednimo ruido posible durante el entrenamiento del modelo, lo que exige intervenci\u00f3n humana en distintos puntos del proceso de creaci\u00f3n y curaci\u00f3n de los datos.  <br\/>Elementos clave para alcanzar el grado necesario de calidad y coherencia son:<br\/>\u2981 Un esquema de representaci\u00f3n de datos que estructure el conjunto de intents posibles y sus par\u00e1metros. Este paso se da siempre en colaboraci\u00f3n estrecha con el cliente o usuario \u2013 aqu\u00ed, el propietario del componente backend que consumir\u00e1 las representaciones resultantes. <br\/>Por ejemplo, el esquema para el intent de calendarizar un evento definir\u00e1 los elementos que le son relevantes (Figura 6): hora de inicio, duraci\u00f3n, ubicaci\u00f3n, organizador, asistentes, etc. A su vez, cada uno de estos elementos se definir\u00e1 con un esquema adicional al nivel de detalle necesario. Por ejemplo, los atributos organizador y asistente de la figura 6 ser\u00e1n configurados en el esquema del elemento usuario, que establece campos para el nombre, la direcci\u00f3n de correo electr\u00f3nico, la empresa, etc. (Figura 7). <\/p>\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"821\" height=\"283\" src=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig6_ALL.png\" alt=\"\" class=\"wp-image-759\" srcset=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig6_ALL.png 821w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig6_ALL-300x103.png 300w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig6_ALL-768x265.png 768w\" sizes=\"(max-width: 821px) 100vw, 821px\" \/><\/figure>\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"822\" height=\"222\" src=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig7_ALL-1.png\" alt=\"\" class=\"wp-image-760\" srcset=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig7_ALL-1.png 822w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig7_ALL-1-300x81.png 300w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig7_ALL-1-768x207.png 768w\" sizes=\"(max-width: 822px) 100vw, 822px\" \/><\/figure>\n\n<p>\u2981 Gu\u00edas de anotaci\u00f3n que aseguren que los anotadores expertos siguen unos mismos criterios de anotaci\u00f3n y por tanto se garantice un nivel m\u00e1ximo de coherencia en los datos anotados. De no ser as\u00ed, obtendremos datos ruidosos que perjudicar\u00e1n la consistencia (y por tanto, el rendimiento) del MML. Las gu\u00edas de anotaci\u00f3n pueden incluir tanto indicaciones basadas en criterios ling\u00fc\u00edsticos, como por ejemplo las siguientes (en ingl\u00e9s), que dan instrucciones sobre cu\u00e1ndo anotar el usuario como organizador de un evento:  <\/p>\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"596\" height=\"77\" src=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig8_ALL.png\" alt=\"\" class=\"wp-image-761\" srcset=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig8_ALL.png 596w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig8_ALL-300x39.png 300w\" sizes=\"(max-width: 596px) 100vw, 596px\" \/><\/figure>\n\n<p>as\u00ed como indicaciones basadas en conocimiento del mundo:<\/p>\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"590\" height=\"136\" src=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig9_ALL.png\" alt=\"\" class=\"wp-image-762\" srcset=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig9_ALL.png 590w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig9_ALL-300x69.png 300w\" sizes=\"(max-width: 590px) 100vw, 590px\" \/><\/figure>\n\n<p>\u2981 Una herramienta de anotaci\u00f3n que facilite la labor del anotador experto semi-automatizando algunos de los pasos de anotaci\u00f3n, y que idealmente disponga tambi\u00e9n de mecanismos para garantizar la coherencia y la solidez de los datos. En Catedra.ai hemos desarrollado nuestra propia herramienta, llamada WILMA, que entre otras funciones valida la estructura y la consistencia sem\u00e1ntica de los datos anotados utilizando un conjunto de reglas de validaci\u00f3n. La figura 10 muestra una de ellas, la cual exige que el intent de calendarizar eventos tenga siempre un organizador de una clase determinada (p. ej., que sea un usuario de Teams, una direcci\u00f3n de correo electr\u00f3nico, etc.)  <\/p>\n\n<figure class=\"wp-block-image size-full is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"690\" height=\"109\" src=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig10_ALL.png\" alt=\"\" class=\"wp-image-763\" style=\"width:840px;height:auto\" srcset=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig10_ALL.png 690w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig10_ALL-300x47.png 300w\" sizes=\"(max-width: 690px) 100vw, 690px\" \/><\/figure>\n\n<p>En resumen, la generaci\u00f3n de datos de fine-tuning exige un ecosistema complejo (Figura 11). Componentes clave dentro de \u00e9ste son, en primer lugar, la interacci\u00f3n con el cliente, que es el ingrediente imprescindible para definir el esquema a la base de los datos; en segundo lugar, una buena herramienta de anotaci\u00f3n (como por ejemplo WILMA) que asegure un proceso de creaci\u00f3n de datos lo m\u00e1s r\u00e1pido y fluido posible; y finalmente, la intervenci\u00f3n de anotadores expertos en distintos puntos del proceso, crucial para garantizar un nivel de calidad m\u00e1xima de los datos. <\/p>\n\n<figure class=\"wp-block-image size-full is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"1019\" height=\"439\" src=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig11_EN.png\" alt=\"\" class=\"wp-image-764\" style=\"width:840px;height:auto\" srcset=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig11_EN.png 1019w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig11_EN-300x129.png 300w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/fig11_EN-768x331.png 768w\" sizes=\"(max-width: 1019px) 100vw, 1019px\" \/><\/figure>\n\n<h2 class=\"wp-block-heading\">Conclusi\u00f3n<\/h2>\n\n<p><br\/>Personalizar MMLs para casos complejos puede ser una tarea tediosa y compleja, pero con una buena orientaci\u00f3n el resultado aportar\u00e1 mejoras remarcables a sus proyectos. En Catedra.ai estamos especializados en aterrizar modelos de este tipo y ofrecemos soluciones a medida. <a href=\"mailto:hello@catedra.ai\">Cont\u00e1ctenos<\/a> y analizaremos con usted c\u00f3mo podemos ayudarle a hacer crecer sus proyectos y llevarlos a nuevos niveles de funcionalidad gracias al enorme potencial de la IA generativa. <\/p>\n","protected":false},"excerpt":{"rendered":"<p>El campo de la Inteligencia Artificial (IA) ha sido testigo este \u00faltimo a\u00f1o de un aumento sin precedentes en el uso de la IA generativa gracias a la adopci\u00f3n generalizada de modelos masivos de lenguaje (MML) para una infinidad de tareas. Desde funciones de resumen autom\u00e1tico o reescritura de texto hasta tareas m\u00e1s complejas, los [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":867,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[19],"tags":[],"class_list":["post-934","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-presentado"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v22.6 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>C\u00f3mo adaptar modelos masivos de lenguaje a tus necesidades espec\u00edficas - Catedra.ai<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"C\u00f3mo adaptar modelos masivos de lenguaje a tus necesidades espec\u00edficas - Catedra.ai\" \/>\n<meta property=\"og:description\" content=\"El campo de la Inteligencia Artificial (IA) ha sido testigo este \u00faltimo a\u00f1o de un aumento sin precedentes en el uso de la IA generativa gracias a la adopci\u00f3n generalizada de modelos masivos de lenguaje (MML) para una infinidad de tareas. Desde funciones de resumen autom\u00e1tico o reescritura de texto hasta tareas m\u00e1s complejas, los [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/\" \/>\n<meta property=\"og:site_name\" content=\"Catedra.ai\" \/>\n<meta property=\"article:published_time\" content=\"2024-02-10T05:45:45+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-05-16T09:31:11+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-103242.png\" \/>\n\t<meta property=\"og:image:width\" content=\"479\" \/>\n\t<meta property=\"og:image:height\" content=\"479\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Catedra_Admin\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Catedra_Admin\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"11 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/\",\"url\":\"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/\",\"name\":\"C\u00f3mo adaptar modelos masivos de lenguaje a tus necesidades espec\u00edficas - Catedra.ai\",\"isPartOf\":{\"@id\":\"https:\/\/catedra.ai\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-103242.png\",\"datePublished\":\"2024-02-10T05:45:45+00:00\",\"dateModified\":\"2024-05-16T09:31:11+00:00\",\"author\":{\"@id\":\"https:\/\/catedra.ai\/#\/schema\/person\/3f114cd423f5e03ca39d54c0b2654537\"},\"breadcrumb\":{\"@id\":\"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/#primaryimage\",\"url\":\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-103242.png\",\"contentUrl\":\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-103242.png\",\"width\":479,\"height\":479},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/catedra.ai\/es\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"C\u00f3mo adaptar modelos masivos de lenguaje a tus necesidades espec\u00edficas\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/catedra.ai\/#website\",\"url\":\"https:\/\/catedra.ai\/\",\"name\":\"Catedra.ai\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/catedra.ai\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"es\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/catedra.ai\/#\/schema\/person\/3f114cd423f5e03ca39d54c0b2654537\",\"name\":\"Catedra_Admin\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/catedra.ai\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/25d45dd2ebc215f88b731cf54da4f58591794f9aefd7d5a170b3918fbdca57f3?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/25d45dd2ebc215f88b731cf54da4f58591794f9aefd7d5a170b3918fbdca57f3?s=96&d=mm&r=g\",\"caption\":\"Catedra_Admin\"},\"url\":\"https:\/\/catedra.ai\/es\/author\/catedra_admin\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"C\u00f3mo adaptar modelos masivos de lenguaje a tus necesidades espec\u00edficas - Catedra.ai","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/","og_locale":"es_ES","og_type":"article","og_title":"C\u00f3mo adaptar modelos masivos de lenguaje a tus necesidades espec\u00edficas - Catedra.ai","og_description":"El campo de la Inteligencia Artificial (IA) ha sido testigo este \u00faltimo a\u00f1o de un aumento sin precedentes en el uso de la IA generativa gracias a la adopci\u00f3n generalizada de modelos masivos de lenguaje (MML) para una infinidad de tareas. Desde funciones de resumen autom\u00e1tico o reescritura de texto hasta tareas m\u00e1s complejas, los [&hellip;]","og_url":"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/","og_site_name":"Catedra.ai","article_published_time":"2024-02-10T05:45:45+00:00","article_modified_time":"2024-05-16T09:31:11+00:00","og_image":[{"width":479,"height":479,"url":"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-103242.png","type":"image\/png"}],"author":"Catedra_Admin","twitter_card":"summary_large_image","twitter_misc":{"Escrito por":"Catedra_Admin","Tiempo de lectura":"11 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/","url":"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/","name":"C\u00f3mo adaptar modelos masivos de lenguaje a tus necesidades espec\u00edficas - Catedra.ai","isPartOf":{"@id":"https:\/\/catedra.ai\/#website"},"primaryImageOfPage":{"@id":"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/#primaryimage"},"image":{"@id":"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/#primaryimage"},"thumbnailUrl":"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-103242.png","datePublished":"2024-02-10T05:45:45+00:00","dateModified":"2024-05-16T09:31:11+00:00","author":{"@id":"https:\/\/catedra.ai\/#\/schema\/person\/3f114cd423f5e03ca39d54c0b2654537"},"breadcrumb":{"@id":"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/#primaryimage","url":"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-103242.png","contentUrl":"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-103242.png","width":479,"height":479},{"@type":"BreadcrumbList","@id":"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/catedra.ai\/es\/"},{"@type":"ListItem","position":2,"name":"C\u00f3mo adaptar modelos masivos de lenguaje a tus necesidades espec\u00edficas"}]},{"@type":"WebSite","@id":"https:\/\/catedra.ai\/#website","url":"https:\/\/catedra.ai\/","name":"Catedra.ai","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/catedra.ai\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"es"},{"@type":"Person","@id":"https:\/\/catedra.ai\/#\/schema\/person\/3f114cd423f5e03ca39d54c0b2654537","name":"Catedra_Admin","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/catedra.ai\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/25d45dd2ebc215f88b731cf54da4f58591794f9aefd7d5a170b3918fbdca57f3?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/25d45dd2ebc215f88b731cf54da4f58591794f9aefd7d5a170b3918fbdca57f3?s=96&d=mm&r=g","caption":"Catedra_Admin"},"url":"https:\/\/catedra.ai\/es\/author\/catedra_admin\/"}]}},"_links":{"self":[{"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/posts\/934","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/comments?post=934"}],"version-history":[{"count":2,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/posts\/934\/revisions"}],"predecessor-version":[{"id":1016,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/posts\/934\/revisions\/1016"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/media\/867"}],"wp:attachment":[{"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/media?parent=934"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/categories?post=934"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/tags?post=934"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}