{"id":940,"date":"2024-02-28T05:50:17","date_gmt":"2024-02-28T05:50:17","guid":{"rendered":"https:\/\/catedra.ai\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/"},"modified":"2024-05-16T09:28:11","modified_gmt":"2024-05-16T09:28:11","slug":"optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face","status":"publish","type":"post","link":"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/","title":{"rendered":"Optimizaci\u00f3n del fine-tuning en modelos masivos de lenguaje de acceso abierto con Hugging Face"},"content":{"rendered":"\n<p>Hugging Face est\u00e1 revolucionando el acceso a las tecnolog\u00edas de \u00faltima generaci\u00f3n de procesamiento del lenguaje natural (PLN), facilitando a desarrolladores e investigadores la adaptaci\u00f3n de modelos masivos de lenguaje (MML) a necesidades y casos de uso espec\u00edficos. A trav\u00e9s de su biblioteca Transformers, la plataforma hace posible tanto la accesibilidad como la personalizaci\u00f3n de modelos de acceso abierto, posicion\u00e1ndose as\u00ed como un recurso esencial para avanzar en el campo de las aplicaciones de Inteligencia Artificial (IA) para el procesamiento del lenguaje. <\/p>\n\n<h2 class=\"wp-block-heading\"><br\/>Subir al tren de Hugging Face<\/h2>\n\n<p><br\/>Pese al papel de referencia de Hugging Face para los iniciados en el mundo de los MMLs, navegar a trav\u00e9s de su amplia oferta puede desanimar al principio dada su aparente complejidad. Ahora bien, su valor radica precisamente en esto: en su gran riqueza de documentaci\u00f3n, tutoriales y conocimiento construido de forma comunitaria, que permite estar al d\u00eda de las \u00faltimas novedades en desarrollo y pr\u00e1cticas recomendadas. <\/p>\n\n<h2 class=\"wp-block-heading\"><br\/>Pasos b\u00e1sicos del fine-tuning<\/h2>\n\n<p><br\/>La t\u00e9cnica del <a href=\"https:\/\/catedra.ai\/es\/como-adaptar-modelos-masivos-de-lenguaje-a-tus-necesidades-especificas\/\">fine-tuning<\/a> (que en castellano puede traducirse como afinamiento) conlleva una serie de pasos que exigen un grado de detalle y precisi\u00f3n considerable:<\/p>\n\n<ul class=\"wp-block-list\">\n<li> Preparaci\u00f3n de los datos: El proceso comienza con la organizaci\u00f3n y representaci\u00f3n de vuestro conjunto de datos en un formato adecuado, como por ejemplo .csv, que es una opci\u00f3n habitual debido a su facilidad de uso y amplia compatibilidad. Sin embargo, este paso es m\u00e1s complejo que eso: previamente, conviene tambi\u00e9n limpiar los datos, asegurarse de que sean representativos del problema que se pretende solucionar y, finalmente, dividirlos en conjuntos separados para las fases de entrenamiento, validaci\u00f3n y testeo del modelo. La finalidad de este paso es, en definitiva, preparar el conjunto de datos para poder realizar el fine-tuning del modelo de manera efectiva, evitando al m\u00e1ximo cualquier tipo de sesgo o error.<\/li>\n\n\n\n<li>Carga de modelos y tokenizadores: A continuaci\u00f3n, es crucial seleccionar correctamente el modelo, as\u00ed como el tokenizador que preparar\u00e1 los datos de texto para \u00e9ste. Esta decisi\u00f3n no es trivial, puesto que implica navegar por un sinf\u00edn de modelos disponibles, cada uno con un conjunto de par\u00e1metros y capacidades espec\u00edficos. Igualmente, la elecci\u00f3n del tokenizador debe ser compatible con el modelo seleccionado. Esta fase comporta una serie de decisiones t\u00e9cnicas para las que es clave entender los matices del impacto de cada par\u00e1metro en el rendimiento del modelo. Es un proceso de equilibrio entre la complejidad del modelo, el rendimiento esperado y los recursos disponibles.    <\/li>\n\n\n\n<li>Entrenamiento: El paso final consiste en hacer el fine-tuning del modelo utilizando los datos que se han preparado previamente. Aqu\u00ed es donde entra en juego un entrenador (trainer), el cual automatiza el proceso de alimentaci\u00f3n de datos al modelo, ajusta sus pesos y optimiza su rendimiento. En Hugging Face, la simplicidad que entra\u00f1a iniciar una sesi\u00f3n de entrenamiento esconde, de hecho, la complejidad real del proceso. Aqu\u00ed es fundamental ajustar el uso de memoria GPU ya que existen modelos que consumen una cantidad elevada de recursos (v\u00e9ase la discusi\u00f3n a continuaci\u00f3n).   <\/li>\n<\/ul>\n\n<h2 class=\"wp-block-heading\"><br\/>Un vistazo a algunos aspectos del fine-tuning<\/h2>\n\n<p><br\/>Hacer un buen fine-tuning de MMLs dentro del ecosistema de Hugging Face implica dominar varias sutilezas:<\/p>\n\n<p><\/p>\n\n<ul class=\"wp-block-list\">\n<li> Carga de modelos: De preferencia, selecciona los par\u00e1metros predeterminados o por defecto, modific\u00e1ndolos s\u00f3lo cuando sea necesario. Es muy probable que recibas errores sin o con muy poca informaci\u00f3n asociada. Cuando as\u00ed sea, revisa tus opciones de par\u00e1metros. <\/li>\n\n\n\n<li>Gesti\u00f3n de la memoria GPU: Un uso eficiente de las capacidades de la GPU es crucial. Intenta utilizar formatos de precisi\u00f3n m\u00e1s baja, como fp16 o bf16, para poder conservar memoria GPU y ajusta los tama\u00f1os de los batchs como mejor convenga para adaptarte a las limitaciones de tu hardware. <\/li>\n\n\n\n<li>Optimizaci\u00f3n del tama\u00f1o del batch: Encontrar el tama\u00f1o adecuado del batch implica un equilibrio entre eficiencia y las limitaciones de tu sistema, lo cual a menudo requiere una experimentaci\u00f3n previa para encontrar el punto \u00f3ptimo.<\/li>\n\n\n\n<li>Evaluaciones intermedias: Evaluar regularmente el rendimiento de tu modelo durante el entrenamiento permite ir haciendo los ajustes necesarios y ayuda a identificar la iteraci\u00f3n m\u00e1s eficaz del modelo.<\/li>\n<\/ul>\n\n<h2 class=\"wp-block-heading\"><br\/>Uso de varias GPUs y cuantizaci\u00f3n<\/h2>\n\n<p><br\/>Para proyectos que exigen una mayor potencia computacional, el uso de varias GPU y de bibliotecas como deepspeed puede mejorar significativamente el proceso de fine-tuning. Esto implica un c\u00e1lculo estrat\u00e9gico del tama\u00f1o total del batch para equilibrar la velocidad del fine-tuning con la precisi\u00f3n resultante. <\/p>\n\n<p><br\/>De manera similar, la cuantizaci\u00f3n ofrece una v\u00eda para aumentar la eficiencia del modelo, reduciendo su tama\u00f1o y mejorando su velocidad de inferencia al convertir sus pesos a formatos de menor precisi\u00f3n una vez terminada la fase de entrenamiento. Este paso es crucial para poder desplegar modelos que sean eficientes dados recursos computacionales limitados, sin comprometer significativamente su rendimiento. <\/p>\n\n<h2 class=\"wp-block-heading\"><br\/>Consideraciones finales<\/h2>\n\n<p><br\/>Aunque el proceso para hacer fine-tuning de MMLs con Hugging Face implica tener una comprensi\u00f3n detallada de varios pasos y estrategias, conocer los principios fundamentales del proceso y partir de una aproximaci\u00f3n con parametrizaci\u00f3n b\u00e1sica ayuda a desmitificar la tarea. Aspectos como la navegaci\u00f3n por los recursos de la plataforma, la parametrizaci\u00f3n y optimizaci\u00f3n de la eficiencia del modelo, el uso de estrategias multi-GPU y de las ventajas de la cuantificaci\u00f3n, tienen todos un mismo objetivo: conseguir un ajuste m\u00e1ximamente eficaz para aprovechar todo el potencial de la IA en vuestros proyectos. <\/p>\n\n<p><br\/>\u00bfNecesitas ayuda en tu viaje a trav\u00e9s de la IA Generativa? En Catedra.ai <a href=\"mailto:hello@catedra.ai\">podemos ayudarte<\/a> a navegar por las complejidades del fine-tuning con Hugging Face. <\/p>\n","protected":false},"excerpt":{"rendered":"<p>Hugging Face est\u00e1 revolucionando el acceso a las tecnolog\u00edas de \u00faltima generaci\u00f3n de procesamiento del lenguaje natural (PLN), facilitando a desarrolladores e investigadores la adaptaci\u00f3n de modelos masivos de lenguaje (MML) a necesidades y casos de uso espec\u00edficos. A trav\u00e9s de su biblioteca Transformers, la plataforma hace posible tanto la accesibilidad como la personalizaci\u00f3n de [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":891,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[9],"tags":[],"class_list":["post-940","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-sin-categorizar"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v22.6 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Optimizaci\u00f3n del fine-tuning en modelos masivos de lenguaje de acceso abierto con Hugging Face - Catedra.ai<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Optimizaci\u00f3n del fine-tuning en modelos masivos de lenguaje de acceso abierto con Hugging Face - Catedra.ai\" \/>\n<meta property=\"og:description\" content=\"Hugging Face est\u00e1 revolucionando el acceso a las tecnolog\u00edas de \u00faltima generaci\u00f3n de procesamiento del lenguaje natural (PLN), facilitando a desarrolladores e investigadores la adaptaci\u00f3n de modelos masivos de lenguaje (MML) a necesidades y casos de uso espec\u00edficos. A trav\u00e9s de su biblioteca Transformers, la plataforma hace posible tanto la accesibilidad como la personalizaci\u00f3n de [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/\" \/>\n<meta property=\"og:site_name\" content=\"Catedra.ai\" \/>\n<meta property=\"article:published_time\" content=\"2024-02-28T05:50:17+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-05-16T09:28:11+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-104841.png\" \/>\n\t<meta property=\"og:image:width\" content=\"508\" \/>\n\t<meta property=\"og:image:height\" content=\"501\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Catedra_Admin\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Catedra_Admin\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/\",\"url\":\"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/\",\"name\":\"Optimizaci\u00f3n del fine-tuning en modelos masivos de lenguaje de acceso abierto con Hugging Face - Catedra.ai\",\"isPartOf\":{\"@id\":\"https:\/\/catedra.ai\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-104841.png\",\"datePublished\":\"2024-02-28T05:50:17+00:00\",\"dateModified\":\"2024-05-16T09:28:11+00:00\",\"author\":{\"@id\":\"https:\/\/catedra.ai\/#\/schema\/person\/3f114cd423f5e03ca39d54c0b2654537\"},\"breadcrumb\":{\"@id\":\"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/#primaryimage\",\"url\":\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-104841.png\",\"contentUrl\":\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-104841.png\",\"width\":508,\"height\":501},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/catedra.ai\/es\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Optimizaci\u00f3n del fine-tuning en modelos masivos de lenguaje de acceso abierto con Hugging Face\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/catedra.ai\/#website\",\"url\":\"https:\/\/catedra.ai\/\",\"name\":\"Catedra.ai\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/catedra.ai\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"es\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/catedra.ai\/#\/schema\/person\/3f114cd423f5e03ca39d54c0b2654537\",\"name\":\"Catedra_Admin\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/catedra.ai\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/25d45dd2ebc215f88b731cf54da4f58591794f9aefd7d5a170b3918fbdca57f3?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/25d45dd2ebc215f88b731cf54da4f58591794f9aefd7d5a170b3918fbdca57f3?s=96&d=mm&r=g\",\"caption\":\"Catedra_Admin\"},\"url\":\"https:\/\/catedra.ai\/es\/author\/catedra_admin\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Optimizaci\u00f3n del fine-tuning en modelos masivos de lenguaje de acceso abierto con Hugging Face - Catedra.ai","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/","og_locale":"es_ES","og_type":"article","og_title":"Optimizaci\u00f3n del fine-tuning en modelos masivos de lenguaje de acceso abierto con Hugging Face - Catedra.ai","og_description":"Hugging Face est\u00e1 revolucionando el acceso a las tecnolog\u00edas de \u00faltima generaci\u00f3n de procesamiento del lenguaje natural (PLN), facilitando a desarrolladores e investigadores la adaptaci\u00f3n de modelos masivos de lenguaje (MML) a necesidades y casos de uso espec\u00edficos. A trav\u00e9s de su biblioteca Transformers, la plataforma hace posible tanto la accesibilidad como la personalizaci\u00f3n de [&hellip;]","og_url":"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/","og_site_name":"Catedra.ai","article_published_time":"2024-02-28T05:50:17+00:00","article_modified_time":"2024-05-16T09:28:11+00:00","og_image":[{"width":508,"height":501,"url":"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-104841.png","type":"image\/png"}],"author":"Catedra_Admin","twitter_card":"summary_large_image","twitter_misc":{"Escrito por":"Catedra_Admin","Tiempo de lectura":"5 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/","url":"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/","name":"Optimizaci\u00f3n del fine-tuning en modelos masivos de lenguaje de acceso abierto con Hugging Face - Catedra.ai","isPartOf":{"@id":"https:\/\/catedra.ai\/#website"},"primaryImageOfPage":{"@id":"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/#primaryimage"},"image":{"@id":"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/#primaryimage"},"thumbnailUrl":"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-104841.png","datePublished":"2024-02-28T05:50:17+00:00","dateModified":"2024-05-16T09:28:11+00:00","author":{"@id":"https:\/\/catedra.ai\/#\/schema\/person\/3f114cd423f5e03ca39d54c0b2654537"},"breadcrumb":{"@id":"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/#primaryimage","url":"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-104841.png","contentUrl":"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-104841.png","width":508,"height":501},{"@type":"BreadcrumbList","@id":"https:\/\/catedra.ai\/es\/optimizacion-del-fine-tuning-en-modelos-masivos-de-lenguaje-de-acceso-abierto-con-hugging-face\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/catedra.ai\/es\/"},{"@type":"ListItem","position":2,"name":"Optimizaci\u00f3n del fine-tuning en modelos masivos de lenguaje de acceso abierto con Hugging Face"}]},{"@type":"WebSite","@id":"https:\/\/catedra.ai\/#website","url":"https:\/\/catedra.ai\/","name":"Catedra.ai","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/catedra.ai\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"es"},{"@type":"Person","@id":"https:\/\/catedra.ai\/#\/schema\/person\/3f114cd423f5e03ca39d54c0b2654537","name":"Catedra_Admin","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/catedra.ai\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/25d45dd2ebc215f88b731cf54da4f58591794f9aefd7d5a170b3918fbdca57f3?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/25d45dd2ebc215f88b731cf54da4f58591794f9aefd7d5a170b3918fbdca57f3?s=96&d=mm&r=g","caption":"Catedra_Admin"},"url":"https:\/\/catedra.ai\/es\/author\/catedra_admin\/"}]}},"_links":{"self":[{"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/posts\/940","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/comments?post=940"}],"version-history":[{"count":2,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/posts\/940\/revisions"}],"predecessor-version":[{"id":1012,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/posts\/940\/revisions\/1012"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/media\/891"}],"wp:attachment":[{"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/media?parent=940"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/categories?post=940"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/catedra.ai\/es\/wp-json\/wp\/v2\/tags?post=940"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}