{"id":938,"date":"2024-02-28T05:50:17","date_gmt":"2024-02-28T05:50:17","guid":{"rendered":"https:\/\/catedra.ai\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/"},"modified":"2024-05-16T09:27:06","modified_gmt":"2024-05-16T09:27:06","slug":"optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face","status":"publish","type":"post","link":"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/","title":{"rendered":"Optimitzaci\u00f3 del fine-tuning en models massius de llenguatge d&#8217;acc\u00e9s obert amb Hugging Face"},"content":{"rendered":"\n<p>Hugging Face est\u00e0 revolucionant l&#8217;acc\u00e9s a les tecnologies d&#8217;\u00faltima generaci\u00f3 de processament del llenguatge natural (PLN), facilitant a desenvolupadors i investigadors l&#8217;adaptaci\u00f3 de models massius de llenguatge (MML) a necessitats i casos d\u2019\u00fas espec\u00edfics. A trav\u00e9s de la seva biblioteca Transformers, la plataforma fa possible tant l\u2019accessibilitat com la personalitzaci\u00f3 de models d\u2019acc\u00e9s obert, posicionant-se aix\u00ed com a recurs essencial per avan\u00e7ar en el camp de les aplicacions de la Inteligencia Artificial (IA) per al processament del llenguatge. <\/p>\n\n<h2 class=\"wp-block-heading\"><br\/>Pujar al tren de Hugging Face<\/h2>\n\n<p><br\/>Malgrat el paper de refer\u00e8ncia de Hugging Face per als iniciats en el m\u00f3n dels MMLs, navegar a trav\u00e9s de la seva \u00e0mplia oferta pot desanimar a l\u2019inici atesa la seva complexitat aparent. Ara b\u00e9, el seu valor rau precisament en aix\u00f2: en la seva gran riquesa de documentaci\u00f3, tutorials i coneixement constru\u00eft de manera comunit\u00e0ria, que permet d\u2019estar al dia sobre les \u00faltimes novetats en desenvolupament i pr\u00e0ctiques recomanades. <\/p>\n\n<h2 class=\"wp-block-heading\"><br\/>Passos b\u00e0sics del fine-tuning<\/h2>\n\n<p><br\/>La t\u00e8cnica del <a href=\"https:\/\/catedra.ai\/ca\/com-adaptar-models-massius-de-llenguatge-a-les-teves-necessitats-especifiques\/\">fine-tuning<\/a> (que en catal\u00e0 pot traduir-se com a afinament) implica una s\u00e8rie de passos que exigeixen un grau de detall i precisi\u00f3 considerable:<\/p>\n\n<ul class=\"wp-block-list\">\n<li> Preparaci\u00f3 de les dades: El proc\u00e9s comen\u00e7a amb l&#8217;organitzaci\u00f3 i la representaci\u00f3 del vostre conjunt de dades en un format adequat, com per exemple .csv, que \u00e9s una opci\u00f3 habitual a causa de la seva facilitat d&#8217;\u00fas i \u00e0mplia compatibilitat. Aquest pas per\u00f2, \u00e9s m\u00e9s complex que aix\u00f2: pr\u00e8viament, conv\u00e9 tamb\u00e9 netejar les dades, assegurar-se de que siguin representatives del problema que es pret\u00e9n adre\u00e7ar i, finalment, dividir-les en conjunts separats per a les fases d\u2019entrenament, validaci\u00f3 i testeig del model. La finalitat d\u2019aquest pas \u00e9s, en definitiva, preparar el conjunt de dades per poder fer el fine-tuning (ajustament) del model de manera efectiva, evitant al m\u00e0xim qualsevol tipus de biaix o error.<\/li>\n\n\n\n<li>C\u00e0rrega de models i tokenitzadors: A continuaci\u00f3, \u00e9s crucial de seleccionar correctament el model, aix\u00ed com el tokenitzador que preparar\u00e0 les dades de text per a aquest. Aquesta decisi\u00f3 no \u00e9s trivial, ja que implica navegar per una infinitat de models disponibles, cadascun amb un conjunt de par\u00e0metres i capacitats espec\u00edfics. Igualment, l&#8217;elecci\u00f3 del tokenitzador ha de ser compatible amb el model seleccionat. Aquesta fase comporta una s\u00e8rie de decisions t\u00e8cniques per a les quals \u00e9s clau entendre els matisos de l&#8217;impacte de cada par\u00e0metre en el rendiment del model. \u00c9s un proc\u00e9s d&#8217;equilibri entre la complexitat del model, el rendiment que se n\u2019espera i els recursos disponibles.    <\/li>\n\n\n\n<li>Entrenament: El pas final consisteix en fer el fine-tuning del model utilitzant les dades que s\u2019han preparat pr\u00e8viament. Aqu\u00ed \u00e9s on entra en joc un entrenador (trainer), que automatitza el proc\u00e9s d&#8217;alimentaci\u00f3 de dades al model, n\u2019ajusta els pesos i n\u2019optimitza el rendiment. A Hugging Face, la simplicitat que comporta iniciar una sessi\u00f3 d&#8217;entrenament amaga, de fet, la complexitat real d\u2019aquest proc\u00e9s. Aqu\u00ed \u00e9s fonamental ajustar l&#8217;\u00fas de mem\u00f2ria GPU, ja que hi ha models que consumeixen una quantitat elevada de recursos (vegeu la discussi\u00f3 a continuaci\u00f3).   <\/li>\n<\/ul>\n\n<h2 class=\"wp-block-heading\"><br\/>Una ullada a alguns aspectes del fine-tuning<\/h2>\n\n<p><br\/>Fer un bon fine-tuning de MMLs dins de l&#8217;ecosistema de Hugging Face implica dominar diverses subtileses:<\/p>\n\n<p><\/p>\n\n<ul class=\"wp-block-list\">\n<li> \u2981 C\u00e0rrega de models: Opteu de prefer\u00e8ncia pels par\u00e0metres predeterminats o per defecte, modificant-los nom\u00e9s quan sigui necessari. \u00c9s molt probable que rebeu errors sense o amb molt poca informaci\u00f3 associada. Quan aix\u00ed sigui, reviseu les vostres opcions de par\u00e0metres. <\/li>\n\n\n\n<li>Gesti\u00f3 de la mem\u00f2ria GPU: L&#8217;\u00fas eficient de les capacitats de la GPU \u00e9s crucial. Proveu d\u2019utilitzar formats de precisi\u00f3 m\u00e9s baixa, com fp16 o bf16, per tal de poder conservar mem\u00f2ria GPU i ajusteu les mides dels batchs com millor convingui per poder-vos adaptar a les limitacions del vostre maquinari. <\/li>\n\n\n\n<li>Optimitzaci\u00f3 de la mida del batch: Trobar la mida adequada del batch implica un equilibri entre efici\u00e8ncia i les limitacions del vostre sistema, que sovint demana una certa experimentaci\u00f3 pr\u00e8via per trobar el punt \u00f2ptim.<\/li>\n\n\n\n<li>Avaluacions interm\u00e8dies: Avaluar regularment el rendiment del vostre model durant l&#8217;entrenament permet anar fent els ajustaments necessaris i ajuda a identificar la iteraci\u00f3 del model m\u00e9s efica\u00e7.<\/li>\n<\/ul>\n\n<h2 class=\"wp-block-heading\"><br\/>\u00das de diverses GPUs i quantitzaci\u00f3<\/h2>\n\n<p><br\/>Per a projectes que exigeixen una pot\u00e8ncia computacional m\u00e9s alta, l&#8217;\u00fas de diverses GPU i de biblioteques com deepspeed pot millorar significativament el proc\u00e9s de fine-tuning. Aix\u00f2 implica un c\u00e0lcul estrat\u00e8gic de la mida total del batch per equilibrar la velocitat del fine-tuning amb la precisi\u00f3 resultant. <\/p>\n\n<p><br\/>De manera similar, la quantitzaci\u00f3 ofereix una via per augmentar l&#8217;efici\u00e8ncia del model, reduint-ne la mida i millorant-ne la velocitat d&#8217;infer\u00e8ncia al convertir els seus pesos a formats de menor precisi\u00f3 un cop acabada la fase d&#8217;entrenament. Aquest pas \u00e9s crucial per poder desplegar models que siguin eficients donats recursos computacionals limitats, sense comprometre\u2019n significativament el rendiment. <\/p>\n\n<h2 class=\"wp-block-heading\"><br\/>Consideracions finals<\/h2>\n\n<p><br\/>Tot i que el proc\u00e9s per fer fine-tuning de MMLs amb Hugging Face implica tenir una comprensi\u00f3 detallada de diversos passos i estrat\u00e8gies, con\u00e8ixer els principis fonamentals del proc\u00e9s i partir d\u2019una aproximaci\u00f3 amb parametritzaci\u00f3 b\u00e0sica ajuda a desmitificar la tasca. Aspectes com la navegaci\u00f3 pels recursos de la plataforma, la parametritzaci\u00f3 i optimitzaci\u00f3 de l&#8217;efici\u00e8ncia del model, l\u2019\u00fas d&#8217;estrat\u00e8gies multi-GPU i dels avantatges de la quantificaci\u00f3, tenen tots un mateix objectiu: aconseguir un ajustament el m\u00e0xim d\u2019efica\u00e7 possible per poder aprofitar tot el potencial de la IA als vostres projectes. <\/p>\n\n<p><br\/>Necessiteu ajuda en el vostre viatge a trav\u00e9s de la IA Generativa? A Catedra.ai <a href=\"mailto:hello@catedra.ai\">podem ajudar-vos<\/a> a navegar per les complexitats del fine-tuning amb Hugging Face. <\/p>\n","protected":false},"excerpt":{"rendered":"<p>Hugging Face est\u00e0 revolucionant l&#8217;acc\u00e9s a les tecnologies d&#8217;\u00faltima generaci\u00f3 de processament del llenguatge natural (PLN), facilitant a desenvolupadors i investigadors l&#8217;adaptaci\u00f3 de models massius de llenguatge (MML) a necessitats i casos d\u2019\u00fas espec\u00edfics. A trav\u00e9s de la seva biblioteca Transformers, la plataforma fa possible tant l\u2019accessibilitat com la personalitzaci\u00f3 de models d\u2019acc\u00e9s obert, posicionant-se [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":890,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[8],"tags":[],"class_list":["post-938","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-uncategorized-ca"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v22.6 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Optimitzaci\u00f3 del fine-tuning en models massius de llenguatge d&#039;acc\u00e9s obert amb Hugging Face - Catedra.ai<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/\" \/>\n<meta property=\"og:locale\" content=\"ca_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Optimitzaci\u00f3 del fine-tuning en models massius de llenguatge d&#039;acc\u00e9s obert amb Hugging Face - Catedra.ai\" \/>\n<meta property=\"og:description\" content=\"Hugging Face est\u00e0 revolucionant l&#8217;acc\u00e9s a les tecnologies d&#8217;\u00faltima generaci\u00f3 de processament del llenguatge natural (PLN), facilitant a desenvolupadors i investigadors l&#8217;adaptaci\u00f3 de models massius de llenguatge (MML) a necessitats i casos d\u2019\u00fas espec\u00edfics. A trav\u00e9s de la seva biblioteca Transformers, la plataforma fa possible tant l\u2019accessibilitat com la personalitzaci\u00f3 de models d\u2019acc\u00e9s obert, posicionant-se [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/\" \/>\n<meta property=\"og:site_name\" content=\"Catedra.ai\" \/>\n<meta property=\"article:published_time\" content=\"2024-02-28T05:50:17+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-05-16T09:27:06+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-104841.png\" \/>\n\t<meta property=\"og:image:width\" content=\"508\" \/>\n\t<meta property=\"og:image:height\" content=\"501\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Catedra_Admin\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Escrit per\" \/>\n\t<meta name=\"twitter:data1\" content=\"Catedra_Admin\" \/>\n\t<meta name=\"twitter:label2\" content=\"Temps estimat de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 minuts\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/\",\"url\":\"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/\",\"name\":\"Optimitzaci\u00f3 del fine-tuning en models massius de llenguatge d'acc\u00e9s obert amb Hugging Face - Catedra.ai\",\"isPartOf\":{\"@id\":\"https:\/\/catedra.ai\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-104841.png\",\"datePublished\":\"2024-02-28T05:50:17+00:00\",\"dateModified\":\"2024-05-16T09:27:06+00:00\",\"author\":{\"@id\":\"https:\/\/catedra.ai\/#\/schema\/person\/3f114cd423f5e03ca39d54c0b2654537\"},\"breadcrumb\":{\"@id\":\"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/#breadcrumb\"},\"inLanguage\":\"ca\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"ca\",\"@id\":\"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/#primaryimage\",\"url\":\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-104841.png\",\"contentUrl\":\"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-104841.png\",\"width\":508,\"height\":501},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/catedra.ai\/ca\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Optimitzaci\u00f3 del fine-tuning en models massius de llenguatge d&#8217;acc\u00e9s obert amb Hugging Face\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/catedra.ai\/#website\",\"url\":\"https:\/\/catedra.ai\/\",\"name\":\"Catedra.ai\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/catedra.ai\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"ca\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/catedra.ai\/#\/schema\/person\/3f114cd423f5e03ca39d54c0b2654537\",\"name\":\"Catedra_Admin\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"ca\",\"@id\":\"https:\/\/catedra.ai\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/25d45dd2ebc215f88b731cf54da4f58591794f9aefd7d5a170b3918fbdca57f3?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/25d45dd2ebc215f88b731cf54da4f58591794f9aefd7d5a170b3918fbdca57f3?s=96&d=mm&r=g\",\"caption\":\"Catedra_Admin\"},\"url\":\"https:\/\/catedra.ai\/ca\/author\/catedra_admin\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Optimitzaci\u00f3 del fine-tuning en models massius de llenguatge d'acc\u00e9s obert amb Hugging Face - Catedra.ai","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/","og_locale":"ca_ES","og_type":"article","og_title":"Optimitzaci\u00f3 del fine-tuning en models massius de llenguatge d'acc\u00e9s obert amb Hugging Face - Catedra.ai","og_description":"Hugging Face est\u00e0 revolucionant l&#8217;acc\u00e9s a les tecnologies d&#8217;\u00faltima generaci\u00f3 de processament del llenguatge natural (PLN), facilitant a desenvolupadors i investigadors l&#8217;adaptaci\u00f3 de models massius de llenguatge (MML) a necessitats i casos d\u2019\u00fas espec\u00edfics. A trav\u00e9s de la seva biblioteca Transformers, la plataforma fa possible tant l\u2019accessibilitat com la personalitzaci\u00f3 de models d\u2019acc\u00e9s obert, posicionant-se [&hellip;]","og_url":"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/","og_site_name":"Catedra.ai","article_published_time":"2024-02-28T05:50:17+00:00","article_modified_time":"2024-05-16T09:27:06+00:00","og_image":[{"width":508,"height":501,"url":"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-104841.png","type":"image\/png"}],"author":"Catedra_Admin","twitter_card":"summary_large_image","twitter_misc":{"Escrit per":"Catedra_Admin","Temps estimat de lectura":"5 minuts"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/","url":"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/","name":"Optimitzaci\u00f3 del fine-tuning en models massius de llenguatge d'acc\u00e9s obert amb Hugging Face - Catedra.ai","isPartOf":{"@id":"https:\/\/catedra.ai\/#website"},"primaryImageOfPage":{"@id":"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/#primaryimage"},"image":{"@id":"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/#primaryimage"},"thumbnailUrl":"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-104841.png","datePublished":"2024-02-28T05:50:17+00:00","dateModified":"2024-05-16T09:27:06+00:00","author":{"@id":"https:\/\/catedra.ai\/#\/schema\/person\/3f114cd423f5e03ca39d54c0b2654537"},"breadcrumb":{"@id":"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/#breadcrumb"},"inLanguage":"ca","potentialAction":[{"@type":"ReadAction","target":["https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/"]}]},{"@type":"ImageObject","inLanguage":"ca","@id":"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/#primaryimage","url":"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-104841.png","contentUrl":"https:\/\/catedra.ai\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-104841.png","width":508,"height":501},{"@type":"BreadcrumbList","@id":"https:\/\/catedra.ai\/ca\/optimitzacio-del-fine-tuning-en-models-massius-de-llenguatge-dacces-obert-amb-hugging-face\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/catedra.ai\/ca\/"},{"@type":"ListItem","position":2,"name":"Optimitzaci\u00f3 del fine-tuning en models massius de llenguatge d&#8217;acc\u00e9s obert amb Hugging Face"}]},{"@type":"WebSite","@id":"https:\/\/catedra.ai\/#website","url":"https:\/\/catedra.ai\/","name":"Catedra.ai","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/catedra.ai\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"ca"},{"@type":"Person","@id":"https:\/\/catedra.ai\/#\/schema\/person\/3f114cd423f5e03ca39d54c0b2654537","name":"Catedra_Admin","image":{"@type":"ImageObject","inLanguage":"ca","@id":"https:\/\/catedra.ai\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/25d45dd2ebc215f88b731cf54da4f58591794f9aefd7d5a170b3918fbdca57f3?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/25d45dd2ebc215f88b731cf54da4f58591794f9aefd7d5a170b3918fbdca57f3?s=96&d=mm&r=g","caption":"Catedra_Admin"},"url":"https:\/\/catedra.ai\/ca\/author\/catedra_admin\/"}]}},"_links":{"self":[{"href":"https:\/\/catedra.ai\/ca\/wp-json\/wp\/v2\/posts\/938","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/catedra.ai\/ca\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/catedra.ai\/ca\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/catedra.ai\/ca\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/catedra.ai\/ca\/wp-json\/wp\/v2\/comments?post=938"}],"version-history":[{"count":2,"href":"https:\/\/catedra.ai\/ca\/wp-json\/wp\/v2\/posts\/938\/revisions"}],"predecessor-version":[{"id":1011,"href":"https:\/\/catedra.ai\/ca\/wp-json\/wp\/v2\/posts\/938\/revisions\/1011"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/catedra.ai\/ca\/wp-json\/wp\/v2\/media\/890"}],"wp:attachment":[{"href":"https:\/\/catedra.ai\/ca\/wp-json\/wp\/v2\/media?parent=938"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/catedra.ai\/ca\/wp-json\/wp\/v2\/categories?post=938"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/catedra.ai\/ca\/wp-json\/wp\/v2\/tags?post=938"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}