{"id":944,"date":"2024-03-07T06:36:00","date_gmt":"2024-03-07T06:36:00","guid":{"rendered":"https:\/\/catedra.ai\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/"},"modified":"2024-05-16T09:25:19","modified_gmt":"2024-05-16T09:25:19","slug":"principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje","status":"publish","type":"post","link":"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/","title":{"rendered":"Principales consideraciones a la hora de elegir un modelo masivo de lenguaje"},"content":{"rendered":"\n<p>Los modelos masivos de lenguaje (MML) est\u00e1n al frente del desarrollo m\u00e1s reciente en inteligencia artificial (IA). Entrenados con decenas, incluso cientos, de miles de millones de par\u00e1metros, su escala formidable los dota de una gran capacidad para tareas complejas de comprensi\u00f3n del lenguaje natural. Modelos vers\u00e1tiles como ChatGPT o Claude sobresalen en un amplio abanico de funciones, como por ejemplo el resumen de texto, la traducci\u00f3n, la respuesta a preguntas o incluso tareas sencillas de programaci\u00f3n. <\/p>\n\n<h2 class=\"wp-block-heading\"><br\/>\u00bfQu\u00e9 define un modelo masivo de lenguaje?<\/h2>\n\n<p><\/p>\n\n<p>Lo que hace tan aptos y capaces estos MMLs es un poco un misterio todav\u00eda, pero se asume que es precisamente su dimensi\u00f3n lo que les da la capacidad de resolver tareas en las que modelos m\u00e1s peque\u00f1os se estrellan. Por tanto, el n\u00famero de par\u00e1metros de un MML, que representa la cantidad de pesos aprendidos durante su entrenamiento, se toma como un \u00edndice significativo del modelo, dado que este tama\u00f1o influye directamente en su complejidad y capacidad de aprendizaje. Investigadores de Google Research han demostrado que cuando el tama\u00f1o del modelo aumenta, su rendimiento no s\u00f3lo mejora en tareas ya conocidas sino que tambi\u00e9n manifiesta nuevas competencias, tal y como se ilustra en la siguiente figura:  <\/p>\n\n<figure class=\"wp-block-image size-large\"><img fetchpriority=\"high\" decoding=\"async\" width=\"1024\" height=\"373\" src=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/imagePALM-1-1024x373.gif\" alt=\"\" class=\"wp-image-979\" srcset=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/imagePALM-1-1024x373.gif 1024w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/imagePALM-1-300x109.gif 300w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/imagePALM-1-768x280.gif 768w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/imagePALM-1-1536x560.gif 1536w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n<p>Figura 1: <a href=\"https:\/\/research.google\/blog\/pathways-language-model-palm-scaling-to-540-billion-parameters-for-breakthrough-performance\/\">Pathways Language Model (PaLM): escala a 540 mil millones de par\u00e1metros para un rendimiento innovador. Narang i Chowdhery. <\/a> Investigaci\u00f3n de Google. 4 de abril de 2022. <\/p>\n\n<p>Otra forma de analizar los MMLs es examinando su complejidad computacional mediante la m\u00e9trica conocida como operaciones de coma flotante (en ingl\u00e9s, floating-point operations, FLOP), que nos informa sobre la potencia de computaci\u00f3n que necesitan y su consumo potencial de energ\u00eda. Puede verlo en este gr\u00e1fico interactivo, mostrado tambi\u00e9n a continuaci\u00f3n. Ilustra la incre\u00edble y r\u00e1pida evoluci\u00f3n de los \u00faltimos a\u00f1os, pero tambi\u00e9n el impacto creciente en t\u00e9rminos de huella de carbono que tienen los modelos durante la fase de entrenamiento. <\/p>\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" width=\"1024\" height=\"797\" src=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/artificial-intelligence-training-computation-1024x797.png\" alt=\"\" class=\"wp-image-777\" srcset=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/artificial-intelligence-training-computation-1024x797.png 1024w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/artificial-intelligence-training-computation-300x233.png 300w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/artificial-intelligence-training-computation-768x598.png 768w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/artificial-intelligence-training-computation-1536x1195.png 1536w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/artificial-intelligence-training-computation-2048x1594.png 2048w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n<p>Fig.2: Costes de computaci\u00f3n para el entrenamiento de modelos a lo largo del tiempo &#8211; Fuente: Epoch (2024) &#8211; <a href=\"#\">Con procesamiento menor<\/a>, Our World in Data.  4 de marzo de 2024.<\/p>\n\n<p>El crecimiento de los MML es muy r\u00e1pido y comporta retos respecto a la cantidad de memoria y potencia de computaci\u00f3n. Esto es un desaf\u00edo importante tanto para la investigaci\u00f3n acad\u00e9mica como para el uso pr\u00e1ctico de estos recursos, y pone por tanto el acento en la necesidad de innovaci\u00f3n y optimizaci\u00f3n continua para poder poner a disposici\u00f3n de todos el potencial y las capacidades de los MMLs. <\/p>\n\n<h2 class=\"wp-block-heading\">Clasificaci\u00f3n de MML<\/h2>\n\n<p>En el \u00e1mbito del procesamiento del lenguaje natural (PLN), se utilizan tablas de clasificaci\u00f3n (conocidas en ingl\u00e9s como leaderboards) para evaluar y comparar el rendimiento de los diferentes MMLs en base a tareas o marcadores espec\u00edficos. Proporcionan una medida cuantitativa del rendimiento de los modelos en determinadas tareas, como la comprensi\u00f3n textual, la generaci\u00f3n de texto o la traducci\u00f3n, entre otras. Estas tablas ofrecen puntos de referencia consensuados que se asumen como est\u00e1ndares, y tienen un valor inmenso porque ayudan a comprender la capacidad de los distintos modelos.  <\/p>\n\n<p>El rendimiento de los MMLs en diversas tareas de PLN se compara normalmente con el rendimiento humano, que se toma como el est\u00e1ndar de oro. Tal y como se indica en la tabla de clasificaci\u00f3n de los MML de acceso abierto del Hugging Face, en los \u00faltimos meses las puntuaciones m\u00e1ximas de rendimiento de los MMLs se han ido acercando progresivamente al nivel de rendimiento humano (marcado con puntos en la siguiente figura): <\/p>\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" width=\"700\" height=\"450\" src=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/newplot1.png\" alt=\"\" class=\"wp-image-778\" srcset=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/newplot1.png 700w, https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/newplot1-300x193.png 300w\" sizes=\"(max-width: 700px) 100vw, 700px\" \/><\/figure>\n\n<p>Fig. 3:<a href=\"#\">Tabla de clasificaci\u00f3n de MMLs de acceso abierto de Hugging Face.<\/a> Beeching et al. (2023). <\/p>\n\n<p>M\u00e1s datos: HELM (siglas en ingl\u00e9s del marco de evaluaci\u00f3n hol\u00edstica de modelos de lenguaje, desarrollado por el Center for Research on Foundation Models de la Universidad de Stanford), eval\u00faa los MMLs en base a una gran variedad de conjuntos de datos y m\u00e9tricas. Aunque la versi\u00f3n Lite de HELM parece sugerir que cuanto mayor es el modelo (en t\u00e9rminos de cantidad de par\u00e1metros) mejor, modelos de tama\u00f1o \u201cm\u00e1s peque\u00f1o\u201d, como Mistral v0.1 (7B), han demostrado un rendimiento sorprendente en diversas tareas de car\u00e1cter gen\u00e9rico, en comparaci\u00f3n con modelos que son diez veces mayores. <\/p>\n\n<p>Y m\u00e1s a\u00fan: a diferencia de la mayor\u00eda de tablas de clasificaci\u00f3n, que se centran \u00fanicamente en la m\u00e9trica de precisi\u00f3n, la tabla HELM classic ofrece una evaluaci\u00f3n completa, aportando tambi\u00e9n informaci\u00f3n sobre la fiabilidad de los modelos con m\u00e9tricas como el sesgo, la eficiencia, la equidad, la robustez y la toxicidad para casi todas las tareas contempladas en el an\u00e1lisis (desde noviembre de 2022 ). La mitad de los modelos en esta clasificaci\u00f3n son de c\u00f3digo abierto. Y es que el 2023 fue el a\u00f1o que el potencial de los MMLs de c\u00f3digo abierto hizo finalmente eclosi\u00f3n. <\/p>\n\n<p>Tambi\u00e9n hay investigaciones recientes que han evaluado diferentes MMLs en base a lo bien que siguen instrucciones y son capaces de responder a preguntas abiertas (p. ej., \u00bfPuedes ayudarme a escribir un correo electr\u00f3nico formal dirigido a un posible socio comercial para proponerle una empresa conjunta?), generando pues nuevas maneras de entender y medir sus capacidades. Todas estas modalidades de evaluaci\u00f3n son b\u00e1sicas para asegurar que a medida que los MMLs se desarrollan y utilizan, mejoran de forma significativa y fiable. Echa un vistazo a HELM Instruct, un marco de evaluaci\u00f3n multidimensional, y los resultados de rendimiento que muestra para 4 modelos en cuanto al seguimiento de instrucciones (GPT-3.5 turbo 0613, GPT-4 0314, Anthropic Claude v1.3 y Cohere Command xlarge beta). Este marco presenta un enfoque estandarizado y objetivo para evaluar el rendimiento de los MMLs y por tanto representa un paso importante para entender sus capacidades.   <\/p>\n\n<p>Por \u00faltimo, evaluar los MMLs es crucial a la hora de adaptarlos a tareas m\u00e1s espec\u00edficas; lo que t\u00e9cnicamente se conoce como \u201caterrizar el modelo\u201d (del ingl\u00e9s grounding). Es necesario aterrizar un MML cuando se quiere utilizar para a\u00f1adir una nueva funcionalidad a un producto o aplicaci\u00f3n determinada, como por ejemplo una interfaz que permita al usuario interaccionar simplemente hablando. No s\u00f3lo es importante capacitar al modelo para la nueva tarea, sino que tambi\u00e9n hay que asegurar que esto mejora el producto en general y no causa ning\u00fan efecto secundario no deseado. Esta evaluaci\u00f3n se puede realizar manualmente o bien de forma autom\u00e1tica. Aunque es un reto debido al amplio abanico de tareas y est\u00e1ndares, es un paso esencial para la mejora continua del proyecto.  <\/p>\n\n<h2 class=\"wp-block-heading\">Dicotom\u00eda en el despliegue de MMLs: Modelos de acceso abierto o comerciales?<\/h2>\n\n<p>Cuando se integra un MML en un proyecto, la elecci\u00f3n entre opciones de acceso abierto o comerciales es cr\u00edtica. Esta decisi\u00f3n influir\u00e1 no s\u00f3lo en las capacidades t\u00e9cnicas del producto final, sino tambi\u00e9n en su din\u00e1mica operativa y su potencial estrat\u00e9gico. Ofrecemos a continuaci\u00f3n un an\u00e1lisis exhaustivo de las consideraciones clave que deben guiar la decisi\u00f3n.  <\/p>\n\n<h3 class=\"wp-block-heading\"><br\/>Facilidad de despliegue y escalabilidad<\/h3>\n\n<p><br\/>Los MMLs comerciales destacan porque permiten un despliegue f\u00e1cil y fluido dentro de cualquier proyecto. Son accesibles mediante llamadas sencillas a trav\u00e9s de interfaces de programaci\u00f3n de aplicaciones (o APIs, en ingl\u00e9s), y por tanto simplifican considerablemente el proceso de desarrollo. Adem\u00e1s, estos modelos incluyen infraestructuras escalables, lo que les hace ideales para proyectos que necesitan alojamiento m\u00faltiple (o multi-host), como las plataformas Software as a Sevice (SaaS). Esta escalabilidad garantiza que la infraestructura de un proyecto pueda crecer en paralelo al incremento de su base de usuarios, sin necesidad de inversiones adicionales importantes en el componente del backend.   <\/p>\n\n<h3 class=\"wp-block-heading\"><br\/>Calidad, disponibilidad y control<\/h3>\n\n<p><br\/>Los MMLs comerciales suelen ser de mayor calidad y ofrecer unas capacidades m\u00e1s altas, ya que reciben el soporte de inversi\u00f3n continua en investigaci\u00f3n y desarrollo. Sin embargo, su disponibilidad y capacidad de respuesta puede quedar resentida durante las horas punta de uso, lo que puede degradar su calidad del servicio. Adem\u00e1s, existe el riesgo de que los modelos queden obsoletos o se retiren del mercado por parte de la empresa que los comercializa, y esto no s\u00f3lo quita capacidad de control sobre estos modelos a los proyectos que los utilizan, sino que hasta puede dejarlos a la estacada.  <\/p>\n\n<h3 class=\"wp-block-heading\"><br\/>Fine-tuning y seguridad<\/h3>\n\n<p><br\/>El proceso fine-tuning (o afinamiento) del modelo es notablemente m\u00e1s f\u00e1cil utilizando MMLs comerciales porque suelen ofrecer recursos de soporte para esta tarea. Sin embargo, hacer fine-tuning sobre modelos comerciales puede acarrear problemas de privacidad y seguridad en cuanto a datos de terceros. En cambio, los MMLs de acceso abierto permiten alojamiento local, lo que mejora significativamente la seguridad de los datos al mantener la informaci\u00f3n confidencial dentro del entorno estrictamente controlado del proyecto.  <\/p>\n\n<h3 class=\"wp-block-heading\"><br\/>Rendimiento y compra<\/h3>\n\n<p><br\/>Los MMLs de acceso abierto constituyen una alternativa econ\u00f3micamente viable, especialmente para proyectos en los que el coste del alojamiento local compensa los gastos recurrentes asociados al uso de la API de un modelo comercial. Vale la pena se\u00f1alar que de hecho, para determinadas tareas, los modelos de acceso abierto disponibles a trav\u00e9s de plataformas como Hugging Face pueden superar en rendimiento sus hom\u00f3logos comerciales, ofreciendo por tanto soluciones superiores sin los costes asociados. <\/p>\n\n<h3 class=\"wp-block-heading\"><br\/>Retos de despliegue y rendimiento espec\u00edfico<\/h3>\n\n<p><br\/>El despliegue de MMLs de acceso abierto, especialmente en escenarios de alta demanda, exige recursos de ingenier\u00eda sustanciales. Esto incluye no s\u00f3lo la configuraci\u00f3n inicial, sino tambi\u00e9n un mantenimiento continuo que garantice un rendimiento y fiabilidad \u00f3ptimos. Adem\u00e1s, instruir los MMLs de acceso abierto para que lleguen a niveles de rendimiento comparables a los de los modelos comerciales puede ser un reto para ciertas tareas, por lo que es necesario una inversi\u00f3n adicional para aterrizar el modelo, por ejemplo haciendo fine-tuning.  <br\/>Por tanto, la elecci\u00f3n entre modelos de acceso abierto o comerciales debe hacerse considerando atentamente las especificidades de cada proyecto, incluyendo aspectos como los requisitos de rendimiento, limitaciones presupuestarias y problemas potenciales de seguridad. Aunque los modelos comerciales ofrecen una mayor facilidad de uso, capacidad de escalabilidad y resultados de alta calidad, presentan sin embargo riesgos relacionados con la disponibilidad, la autonom\u00eda y capacidad de control, y la privacidad de los datos. Por el contrario, los modelos de acceso abierto proporcionan un mayor control y seguridad a expensas de una inversi\u00f3n adicional en recursos.   Es sopesando todos estos factores que podr\u00e9is tomar una decisi\u00f3n informada que se alinee con los objetivos estrat\u00e9gicos y las capacidades operativas de vuestro proyecto.<\/p>\n\n<h2 class=\"wp-block-heading\">No est\u00e1s solo<\/h2>\n\n<p><br\/>Navegar por el complejo paisaje de los MMLs puede parecer abrumador para quien no est\u00e9 \u00edntimamente familiarizado con el campo, dada las capacidades tan diversas de los modelos disponibles, su variedad de dimensiones, las diferencias de rendimiento y la serie de ventajas e inconvenientes que presentan los modelos de acceso abierto y los comerciales. Muy seguramente consideres que integrar esta tecnolog\u00eda en tu proyecto puede beneficiarlo significativamente, pero desplegar estos recursos por tu cuenta de forma \u00f3ptima puede comportar una cantidad considerable de tiempo y recursos. Una soluci\u00f3n conveniente a esta situaci\u00f3n es acudir a un equipo dedicado de profesionales con la experiencia necesaria para gestionar con habilidad todos los aspectos del proceso.<br\/>En Catedra.ai tenemos el equipo que te puede ayudar en ese esfuerzo. <a href=\"mailto:hello@catedra.ai\">Contacta con nosotros<\/a> y te acompa\u00f1aremos en el viaje por el nuevo reino de los MMLs. <\/p>\n","protected":false},"excerpt":{"rendered":"<p>Los modelos masivos de lenguaje (MML) est\u00e1n al frente del desarrollo m\u00e1s reciente en inteligencia artificial (IA). Entrenados con decenas, incluso cientos, de miles de millones de par\u00e1metros, su escala formidable los dota de una gran capacidad para tareas complejas de comprensi\u00f3n del lenguaje natural. Modelos vers\u00e1tiles como ChatGPT o Claude sobresalen en un amplio [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":903,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[9],"tags":[],"class_list":["post-944","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-sin-categorizar"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v22.6 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Principales consideraciones a la hora de elegir un modelo masivo de lenguaje - Catedra.ai<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Principales consideraciones a la hora de elegir un modelo masivo de lenguaje - Catedra.ai\" \/>\n<meta property=\"og:description\" content=\"Los modelos masivos de lenguaje (MML) est\u00e1n al frente del desarrollo m\u00e1s reciente en inteligencia artificial (IA). Entrenados con decenas, incluso cientos, de miles de millones de par\u00e1metros, su escala formidable los dota de una gran capacidad para tareas complejas de comprensi\u00f3n del lenguaje natural. Modelos vers\u00e1tiles como ChatGPT o Claude sobresalen en un amplio [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/\" \/>\n<meta property=\"og:site_name\" content=\"Catedra.ai\" \/>\n<meta property=\"article:published_time\" content=\"2024-03-07T06:36:00+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-05-16T09:25:19+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-105643-1.png\" \/>\n\t<meta property=\"og:image:width\" content=\"519\" \/>\n\t<meta property=\"og:image:height\" content=\"516\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Catedra_Admin\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Catedra_Admin\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"10 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/\",\"url\":\"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/\",\"name\":\"Principales consideraciones a la hora de elegir un modelo masivo de lenguaje - Catedra.ai\",\"isPartOf\":{\"@id\":\"https:\/\/catedra.ai\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-105643-1.png\",\"datePublished\":\"2024-03-07T06:36:00+00:00\",\"dateModified\":\"2024-05-16T09:25:19+00:00\",\"author\":{\"@id\":\"https:\/\/catedra.ai\/#\/schema\/person\/3f114cd423f5e03ca39d54c0b2654537\"},\"breadcrumb\":{\"@id\":\"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/#primaryimage\",\"url\":\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-105643-1.png\",\"contentUrl\":\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-105643-1.png\",\"width\":519,\"height\":516},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/catedra.ai\/es\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Principales consideraciones a la hora de elegir un modelo masivo de lenguaje\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/catedra.ai\/#website\",\"url\":\"https:\/\/catedra.ai\/\",\"name\":\"Catedra.ai\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/catedra.ai\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"es\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/catedra.ai\/#\/schema\/person\/3f114cd423f5e03ca39d54c0b2654537\",\"name\":\"Catedra_Admin\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/catedra.ai\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/25d45dd2ebc215f88b731cf54da4f58591794f9aefd7d5a170b3918fbdca57f3?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/25d45dd2ebc215f88b731cf54da4f58591794f9aefd7d5a170b3918fbdca57f3?s=96&d=mm&r=g\",\"caption\":\"Catedra_Admin\"},\"url\":\"https:\/\/catedra.ai\/es\/author\/catedra_admin\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Principales consideraciones a la hora de elegir un modelo masivo de lenguaje - Catedra.ai","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/","og_locale":"es_ES","og_type":"article","og_title":"Principales consideraciones a la hora de elegir un modelo masivo de lenguaje - Catedra.ai","og_description":"Los modelos masivos de lenguaje (MML) est\u00e1n al frente del desarrollo m\u00e1s reciente en inteligencia artificial (IA). Entrenados con decenas, incluso cientos, de miles de millones de par\u00e1metros, su escala formidable los dota de una gran capacidad para tareas complejas de comprensi\u00f3n del lenguaje natural. Modelos vers\u00e1tiles como ChatGPT o Claude sobresalen en un amplio [&hellip;]","og_url":"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/","og_site_name":"Catedra.ai","article_published_time":"2024-03-07T06:36:00+00:00","article_modified_time":"2024-05-16T09:25:19+00:00","og_image":[{"width":519,"height":516,"url":"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-105643-1.png","type":"image\/png"}],"author":"Catedra_Admin","twitter_card":"summary_large_image","twitter_misc":{"Escrito por":"Catedra_Admin","Tiempo de lectura":"10 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/","url":"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/","name":"Principales consideraciones a la hora de elegir un modelo masivo de lenguaje - Catedra.ai","isPartOf":{"@id":"https:\/\/catedra.ai\/#website"},"primaryImageOfPage":{"@id":"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/#primaryimage"},"image":{"@id":"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/#primaryimage"},"thumbnailUrl":"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-105643-1.png","datePublished":"2024-03-07T06:36:00+00:00","dateModified":"2024-05-16T09:25:19+00:00","author":{"@id":"https:\/\/catedra.ai\/#\/schema\/person\/3f114cd423f5e03ca39d54c0b2654537"},"breadcrumb":{"@id":"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/#primaryimage","url":"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-105643-1.png","contentUrl":"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-105643-1.png","width":519,"height":516},{"@type":"BreadcrumbList","@id":"https:\/\/catedra.ai\/es\/principales-consideraciones-a-la-hora-de-elegir-un-modelo-masivo-de-lenguaje\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/catedra.ai\/es\/"},{"@type":"ListItem","position":2,"name":"Principales consideraciones a la hora de elegir un modelo masivo de lenguaje"}]},{"@type":"WebSite","@id":"https:\/\/catedra.ai\/#website","url":"https:\/\/catedra.ai\/","name":"Catedra.ai","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/catedra.ai\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"es"},{"@type":"Person","@id":"https:\/\/catedra.ai\/#\/schema\/person\/3f114cd423f5e03ca39d54c0b2654537","name":"Catedra_Admin","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/catedra.ai\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/25d45dd2ebc215f88b731cf54da4f58591794f9aefd7d5a170b3918fbdca57f3?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/25d45dd2ebc215f88b731cf54da4f58591794f9aefd7d5a170b3918fbdca57f3?s=96&d=mm&r=g","caption":"Catedra_Admin"},"url":"https:\/\/catedra.ai\/es\/author\/catedra_admin\/"}]}},"_links":{"self":[{"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/posts\/944","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/comments?post=944"}],"version-history":[{"count":2,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/posts\/944\/revisions"}],"predecessor-version":[{"id":1010,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/posts\/944\/revisions\/1010"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/media\/903"}],"wp:attachment":[{"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/media?parent=944"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/categories?post=944"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/tags?post=944"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}