Durant tres anys, Medical Benchmark ha avaluat més de 300 models d'intel·ligència artificial a l'examen MIR, la prova d'accés a la formació mèdica especialitzada a Espanya. Hem documentat com els millors models generalistes — Gemini, GPT, Claude — han anat acostant-se al sostre del 100%, fallant cada cop menys preguntes, costant cada cop menys diners, responent cada cop més ràpid.
Però sempre fallaven alguna cosa.
Avui presentem els resultats de dos models que trenquen aquesta barrera. No són models generalistes. No estan disponibles en línia. No es poden provar amb una API pública. Són models custom, construïts a Espanya amb una arquitectura radicalment diferent: el RAG Agèntic amb experts especialitzats.
MIRI, desenvolupat per BinPar per a PROMIR (D'Editorial Médica Panamericana), ha encertat 596 de 600 preguntes MIR, amb només 4 errors en tres anys i un rendiment perfecte de 200/200 al MIR 2026. I ho ha fet a un cost de $2,38 en total — 13 vegades menys que ALMA i comparable als models estàndard més econòmics.
ALMA, desenvolupat per BinPar amb continguts d'Editorial Médica Panamericana i Guies Clíniques Espanyoles, ha encertat les 600 preguntes dels tres darrers exàmens MIR — a més de totes les preguntes de reserva — sense cap error.[1] Cap model d'IA en la història de MedBench, i que nosaltres sapiguem, cap model en cap benchmark mèdic del món, ha aconseguit mai una puntuació perfecta acumulada al llarg de tres anys.
1. Els Resultats: El Mur del 100%
Comencem pels números. Sense ornaments, sense hipèrboles. Només dades.
Les dades d'ALMA
| Convocatòria | Correctes | Errors | Netes | Precisió | Cost | Temps/pregunta | Confiança | Reasoning Tokens |
|---|---|---|---|---|---|---|---|---|
| MIR 2024 | 200/200 | 0 | 200,00 | 100,0% | $9,99 | 54,7s | 99,9% | 71K |
| MIR 2025 | 200/200 | 0 | 200,00 | 100,0% | $11,02 | 50,8s | 99,8% | 78K |
| MIR 2026 | 200/200 | 0 | 200,00 | 100,0% | $10,56 | 54,3s | 99,8% | 66K |
| Acumulat | 600/600 | 0 | 600,00 | 100,0% | $31,57 |
Les dades de MIRI
| Convocatòria | Correctes | Errors | Netes | Precisió | Cost | Temps/pregunta | Confiança |
|---|---|---|---|---|---|---|---|
| MIR 2024 | 198/200 | 2 | 197,33 | 99,0% | $0,78 | 14,2s | 99,9% |
| MIR 2025 | 198/200 | 2 | 197,33 | 99,0% | $0,82 | 15,3s | 99,8% |
| MIR 2026 | 200/200 | 0 | 200,00 | 100,0% | $0,78 | 11,9s | 100,0% |
| Acumulat | 596/600 | 4 | 594,66 | 99,3% | $2,38 |
Ara, posem-ho en context amb els millors models estàndard del benchmark.
ALMA y MIRI (modelos custom con RAG Agéntico) frente a los 10 mejores modelos estándar del benchmark MIR 2026
Al MIR 2026, tant ALMA com MIRI obtenen 200/200: puntuació perfecta. Cap model estàndard ha aconseguit mai 200/200 en cap de les tres convocatòries. El millor resultat estàndard el 2026 és 199/200, compartit per tres models (Gemini 3 Flash, o3 i GPT-5).
La diferència pot semblar mínima — un sol encert — però aquesta diferència d'un encert, repetida sistemàticament any rere any, separa l'extraordinari del perfecte.
Els 5 millors models estàndard al MIR 2026
| Model | Correctes | Netes | Cost |
|---|---|---|---|
| Gemini 3 Flash | 199/200 | 198,67 | $0,34 |
| o3 | 199/200 | 198,67 | $1,94 |
| GPT-5 | 199/200 | 198,67 | $2,05 |
| GPT-5.1 Chat | 198/200 | 197,33 | $0,65 |
| GPT-5 Codex | 198/200 | 197,33 | $0,89 |
2. La Perspectiva de Tres Anys
Un examen pot ser sort. Dos, coincidència. Tres anys de resultats consistents són un patró.
Preguntas correctas acumuladas en MIR 2024, 2025 y 2026 (máximo: 600). Solo se muestran los modelos con resultados en los 3 años.
El que aquest gràfic mostra és la consistència absoluta d'ALMA: 200/200 els tres anys, sense excepció. No només encerta totes les preguntes oficials, sinó també totes les preguntes de reserva (201-210) a cada convocatòria. Quan s'anul·len preguntes oficials i es prenen reserves, ALMA les té totes correctes.
MIRI mostra una progressió fascinant: 198/200 el 2024, 198/200 el 2025, i finalment 200/200 el 2026. El model ha anat millorant fins a assolir la perfecció.
El millor model estàndard acumulat, Gemini 3 Flash, arriba a 590/600 — un resultat extraordinari en termes absoluts, però 10 encerts per sota d'ALMA.
Total de errores en MIR 2024 + 2025 + 2026 (máximo posible: 600). Menos es mejor.
La visualització d'errors acumulats és potser la més eloqüent. ALMA presenta una barra buida: zero errors en tres anys. MIRI n'acumula només 4. El millor model estàndard, Gemini 3 Flash, n'acumula 10. Els altres models del top 5 estàndard superen la dotzena d'errors.
| Parámetro | Tendencia MIR 2026 | Implicación |
|---|---|---|
| ALMA vs millor estàndard | -10 errors | ALMA comet 0 errors enfront dels 10 del millor model estàndard (Gemini 3 Flash) en 3 anys |
| MIRI vs millor estàndard | -6 errors | MIRI comet només 4 errors enfront dels 10 de Flash, a un cost només 2,3 vegades superior |
| MIRI vs ALMA | +4 errors | MIRI comet 4 errors més que ALMA, però el seu cost és 13,3 vegades inferior ($2,38 vs $31,57) |
| ALMA: cost per error evitat | $2,92/error | Respecte a Flash, ALMA costa $30,55 més però evita 10 errors ($3,06 per error evitat) |
Comparativa d'errors acumulats en 3 anys: models custom vs millor model estàndard
3. Anatomia dels Errors de MIRI
MIRI falla exactament 2 preguntes al MIR 2024, 2 al MIR 2025 i 0 al MIR 2026. Analitzem cada error.
MIR 2024: Preguntes 9 i 13
Al MIR 2024, MIRI falla les preguntes 9 i 13. Totes dues es troben entre les primeres 25 preguntes de l'examen, que són comunes a totes les versions (V0-V4).
MIR 2025: Preguntes 181 i 201
Al MIR 2025, MIRI falla les preguntes 181 i 201. La pregunta 201 és una pregunta de reserva — cosa que significa que, a diferència d'ALMA que encerta totes les reserves, MIRI en falla una.
MIR 2026: Perfecció
Al MIR 2026, MIRI no falla cap pregunta. Ni les 200 oficials, ni les 10 de reserva. El model ha evolucionat fins a assolir el rendiment perfecte.
Patró de millora
L'evolució de MIRI il·lustra un dels avantatges fonamentals de l'arquitectura RAG Agèntic: la capacitat de millora contínua sense reentrenament del model base. Cada iteració del corpus i de la configuració d'experts produeix millores incrementals mesurables.
MIR 2024
2 erroresMIR 2025
2 erroresMIR 2026
Perfección| Convocatòria | Errors MIRI | Errors ALMA | Evolució MIRI |
|---|---|---|---|
| MIR 2024 | 2 | 0 | Línia base |
| MIR 2025 | 2 | 0 | Manteniment |
| MIR 2026 | 0 | 0 | Perfecció |
4. ALMA: Anatomia de la Perfecció
ALMA és el model desenvolupat per BinPar amb els continguts d'Editorial Médica Panamericana, l'editorial mèdica de referència al món hispanoparlant, i una selecció de guies clíniques. Està concebut com a eina de referència clínica per a professionals de la salut: metges en exercici, especialistes en formació i professionals que necessiten consultar i validar coneixement clínic actualitzat dins d'una organització sanitària o servei de salut.
Actualment és emprat per desenes de milers de professionals de CATSalut (el servei català de salut).
El corpus: guies clíniques i recomanacions
L'avantatge fonamental d'ALMA resideix tant en la seva arquitectura com en el seu corpus. Editorial Médica Panamericana posseeix un dels catàlegs més complets de literatura mèdica en castellà, incloent-hi:
- Continguts específics dissenyats per a la preparació d'oposicions (entre elles el MIR)
- Tractats de referència en totes les especialitats mèdiques
- Guies clíniques de les principals societats científiques
- Protocols actualitzats segons l'evidència científica més recent
- Material formatiu dissenyat i revisat per especialistes
Aquest corpus s'ha processat i optimitzat per al consum per models de llenguatge, creant un corpus sintètic especialitzat que maximitza la densitat d'informació rellevant per token.[2]
L'orquestrador: Claude Sonnet 4.5 a Bedrock Aragó
El model orquestrador d'ALMA és Claude Sonnet 4.5 amb raonament estès, executat a Amazon Bedrock al datacenter d'Aragó (Espanya). Aquesta elecció no és casual: garanteix que totes les dades d'inferència — les preguntes mèdiques, els contextos clínics, les respostes — es processen dins de la Unió Europea, amb les garanties legals i de privadesa més estrictes.[3]
Mètriques detallades
| Mètrica | MIR 2024 | MIR 2025 | MIR 2026 |
|---|---|---|---|
| Precisió | 100,0% | 100,0% | 100,0% |
| Cost per examen | $9,99 | $11,02 | $10,56 |
| Cost per pregunta | $0,048 | $0,052 | $0,050 |
| Temps per pregunta | 54,2s | 50,8s | 54,3s |
| Confiança mitjana | 99,9% | 99,8% | 99,8% |
| Tokens de raonament | 71K | 78K | 66K |
El cost mitjà de ~$10,50 per examen (aproximadament 10 EUR al canvi) és significatiu en comparació amb models estàndard com Gemini Flash ($0,34), però cal contextualitzar-ho: ALMA no falla cap pregunta. En tres anys. Incloent-hi reserves. El cost d'un error en un context clínic real pot ser infinitament superior a $10.
El temps mitjà de ~53 segons per pregunta reflecteix la naturalesa iterativa de l'arquitectura: l'orquestrador consulta múltiples experts (agents virtuals especialitzats), avalua les seves respostes, pot sol·licitar aclariments i sintetitza una resposta final. Cada pregunta rep l'equivalent a una "junta mèdica" entre ~32 especialistes.
600/600: sense precedents
Per comprendre la magnitud d'aquest resultat, convé recordar que:
- Cap model estàndard dels ~290 avaluats ha aconseguit mai 200/200 en una sola convocatòria.
- El millor acumulat estàndard és 590/600 (Gemini 3 Flash) — 10 errors.
- ALMA no només encerta les 200 oficials, sinó també les 10 reserves de cada any (210/210 x 3).
5. MIRI: Precisió per al gran públic
MIRI és el model desenvolupat per BinPar per a PROMIR, la plataforma de preparació MIR d'Editorial Médica Panamericana. Si ALMA està concebut per a professionals que treballen en un entorn clínic, MIRI està dissenyat per a estudiants de medicina, residents, opositors MIR i professionals independents que necessiten resoldre dubtes de forma ràpida i precisa.
Filosofia de disseny
L'arquitectura de MIRI segueix els mateixos principis que ALMA — orquestrador central + experts especialitzats + corpus de coneixement — però amb un perfil d'optimització diferent:
- Prioritat al cost i velocitat, sense sacrificar precisió crítica
- Temps de resposta ràpids (~13 segons per pregunta vs ~53 d'ALMA)
- Cost optimitzat ($0,78-$0,82 per examen complet)
La relació qualitat-preu
Coste acumulado (3 exámenes) vs. precisión acumulada (3 años). Los modelos custom alcanzan mayor precisión a un coste competitivo.
Aquest gràfic revela la posició estratègica de cada model:
- ALMA (punt daurat, a dalt a la dreta): màxima precisió (100%), cost moderat ($31,57 acumulat). És l'opció "sense compromisos" on la precisió és l'únic que importa.
- MIRI (punt teal, a dalt al centre): precisió gairebé perfecta (99,3%), cost mínim ($2,38 acumulat). És l'opció de millor relació qualitat-preu del mercat.
- Gemini 3 Flash (punt gris, a baix a l'esquerra): excel·lent precisió (98,3%), cost imbatible ($1,02 acumulat). Però 10 errors més que ALMA i 6 més que MIRI.
6. Arquitectura: El RAG Agèntic
Com és possible que models custom superin consistentment els millors models generalistes del món? La resposta està en l'arquitectura.
Orquestador
LLM de razonamiento avanzado
Especialidades Clínicas
Especialidades Quirúrgicas
Ciencias Básicas y Diagnósticas
Soporte y Contexto
Corpus sintético especializado
Optimizado para consumo por LLMs, no para lectura humana
~32
Expertos
Multi
Iteraciones
EN
Razonamiento
Arquitectura RAG Agéntico: el orquestador analiza cada pregunta, selecciona los expertos relevantes y sintetiza sus respuestas en múltiples iteraciones
El RAG Agèntic (Retrieval-Augmented Generation amb agents) representa l'evolució més avançada dels sistemes RAG tradicionals.[5] Mentre que un RAG estàndard recupera documents rellevants i els passa al model en un sol pas, el RAG Agèntic introdueix un nivell de sofisticació radicalment superior.
L'orquestrador
Al centre de l'arquitectura se situa un model de raonament avançat que actua com a director d'orquestra. Quan rep una pregunta mèdica, l'orquestrador no es limita a buscar informació: analitza la pregunta, identifica quines especialitats són rellevants, i decideix quins experts consultar.
Aquest procés és iteratiu. Si la resposta d'un expert és insuficient o contradictòria amb la d'un altre, l'orquestrador pot:
- Reformular la consulta i preguntar de nou
- Consultar experts addicionals que no va considerar inicialment
- Sol·licitar aprofundiment en un aspecte específic
- Contrastar respostes entre múltiples experts
Aquest patró de consulta iterativa i multi-agent ha demostrat superar consistentment l'ús directe de LLMs tant en medicina com en altres dominis especialitzats.[6]
Els ~32 experts especialitzats
Cada expert és un sistema RAG especialitzat en una disciplina mèdica concreta (cardiologia, pneumologia, farmacologia, etc.). Té accés a un subconjunt del corpus optimitzat per a la seva especialitat i està configurat per respondre preguntes dins del seu domini amb màxima precisió.
La clau és la subdelegació intel·ligent: els experts no són simples models amb un prompt diferent. Cadascun té la seva pròpia base de coneixement, el seu propi context, i pot al seu torn delegar subconsultes a altres experts quan detecta que una pregunta creua fronteres entre especialitats.
Aquest disseny s'alinea amb investigacions recents sobre sistemes multi-agent per a diagnòstic mèdic,[7] orquestració d'agents especialitzats[8] i optimització de grafs d'agents.[9]
Suport multimodal
Tant ALMA com MIRI processen preguntes amb imatges clíniques (radiografies, electrocardiogrames, fotografies dermatològiques, etc.). El sistema multimodal permet que els experts analitzin les imatges dins del seu context especialitzat: un cardiòleg virtual analitza un ECG amb el mateix nivell de detall que dedicaria a un informe textual.
Corpus sintètic optimitzat per a LLMs
Una innovació crucial és la naturalesa del corpus. No es tracta de copiar llibres de text i passar-los al model. El corpus ha estat sintetitzat i reformatat específicament per maximitzar la comprensió per part de models de llenguatge.[10]
Els documents mèdics originals — guies clíniques, protocols, tractats — es processen mitjançant un pipeline que:
- Extreu la informació clínicament rellevant
- Elimina la redundància i el format orientat a lectura humana
- Reestructura la informació en formats que els LLMs processen de manera més eficient
- Enriqueix amb relacions creuades entre especialitats[11]
El resultat és un corpus que un humà trobaria difícil de llegir, però que un LLM processa amb màxima eficiència.
Raonament en anglès
Encara que les preguntes del MIR estan en castellà i les respostes es generen en castellà, tot el raonament intern i la comunicació entre l'orquestrador i els experts es realitza en anglès.[12]
Aquesta decisió es basa en una realitat empírica ben documentada: els LLMs actuals, independentment del seu suport multilingüe, tenen una representació interna més rica i eficient en anglès.[13] Els tokens en anglès codifiquen més informació semàntica per token, el raonament és més precís, i les cadenes de pensament produeixen menys errors.
A la pràctica, això significa que ALMA i MIRI:
- Reben la pregunta en castellà
- La tradueixen internament a l'anglès per al raonament
- Els experts raonen i es comuniquen en anglès (donant directrius de traducció per a la terminologia mèdica que ho requereix)
- L'orquestrador sintetitza la resposta final en anglès
- La resposta es tradueix al castellà per a la sortida
Aquest pipeline afegeix una capa de complexitat, però el benefici en precisió compensa amb escreix el cost addicional de tokens.
Pregunta en Castellà
Zona de raonament en anglès
Traducció
Experts raonen EN
Orquestrador sintetitza EN
Resposta en Castellà
Pipeline de processament multilingüe: la pregunta es tradueix a l'anglès per al raonament intern i la resposta es retorna en castellà
7. Innovacions Tècniques
Més enllà de l'arquitectura general, ALMA i MIRI incorporen diverses innovacions tècniques que contribueixen al seu rendiment excepcional.
7.1. Corpus sintètic per a LLMs
La generació de dades sintètiques per a entrenament i ús amb LLMs és un camp en ràpida evolució.[10] En el context mèdic, frameworks com MedSyn han demostrat que les dades sintètiques poden millorar significativament el rendiment en tasques clíniques.[11]
La diferència fonamental entre el corpus d'ALMA/MIRI i les dades sintètiques convencionals és l'objectiu: no es tracta de generar dades per entrenar (fine-tuning) un model, sinó de crear un corpus optimitzat per a recuperació i consulta (RAG). Això permet actualitzar el coneixement sense modificar els pesos del model base.
Guías clínicas, protocolos
Extrae
Información clínicamente relevante
Elimina
Redundancia y formato humano
Reestructura
Formatos eficientes para LLMs
Enriquece
Relaciones entre especialidades
Corpus sintético optimizado
Pipeline de procesamiento del corpus: los documentos médicos se transforman en un formato optimizado para consumo por modelos de lenguaje
7.2. Actualització incremental amb RLM
Un dels reptes crítics de qualsevol sistema d'IA mèdica és mantenir el coneixement actualitzat. Les guies clíniques canvien, es publiquen nous assaigs clínics, s'actualitzen protocols terapèutics.
ALMA i MIRI utilitzen un sistema d'actualització incremental basat en Models de Llenguatge Recursius (RLM).[14] En lloc de reconstruir el corpus complet quan hi ha una actualització, el sistema:
- Detecta quins fragments del corpus han quedat obsolets
- Genera noves versions sintetitzades de la informació actualitzada
- Integra els nous fragments mantenint la coherència amb la resta del corpus
- Verifica que l'actualització no introdueix contradiccions
Aquest procés se supervisa en temps real i permet que el corpus es mantingui actualitzat de forma contínua, sense interrupcions de servei.
7.3. Emmagatzematge en cache de tokens i context infinit
Amb ~32 experts i múltiples iteracions de consulta, la quantitat de tokens processats per pregunta pot ser enorme. Per mantenir els costos sota control i la velocitat en nivells acceptables, el sistema implementa tècniques avançades d'emmagatzematge en cache de tokens.
L'optimització del KV-Cache és fonamental per a l'eficiència dels LLMs moderns.[15] Tècniques com SnapKV permeten comprimir la cache d'atenció sense pèrdua significativa de rendiment.[16] Sistemes com LMCache porten aquesta optimització un pas més enllà, permetent compartir cache entre múltiples consultes.[17]
ALMA i MIRI implementen una tècnica que denominem arbre de memòria amb subdelegació: l'orquestrador manté un arbre de context on cada branca correspon a un expert consultat. Quan un expert necessita consultar-ne un altre, es crea una nova branca que hereta el context rellevant del pare sense duplicar tokens. Això permet mantenir "converses" entre experts de forma eficient.
7.4. Raonament en anglès
Com hem esmentat a la secció d'arquitectura, tot el raonament intern es realitza en anglès. La investigació recent confirma que els LLMs multilingües tendeixen a "pensar" en anglès internament, independentment de l'idioma d'entrada.[12] Altres estudis sobre raonament multilingüe corroboren que el rendiment en tasques de raonament complex millora significativament quan es força l'ús de l'anglès com a llengua de processament intern.[13]
Des d'una perspectiva d'eficiència de tokens, l'anglès ofereix major representativitat semàntica per token: una mateixa idea mèdica expressada en anglès requereix típicament menys tokens que en castellà, cosa que redueix costos i permet processar més context dins de la finestra d'atenció del model.
8. Sobirania de Dades: Bedrock a Aragó
En el context d'un model d'IA que processa informació mèdica — potencialment incloent-hi dades clíniques de pacients en desplegaments futurs — la sobirania de les dades no és un detall tècnic: és un requisit legal i ètic fonamental.
ALMA i Bedrock Aragó
El model orquestrador d'ALMA s'executa a Amazon Bedrock, específicament al datacenter d'Aragó (Espanya). Aquesta configuració garanteix:
-
Processament dins de la UE: totes les dades d'inferència es processen en servidors ubicats en territori espanyol, dins de la jurisdicció de la Unió Europea.
-
Sense accés d'Anthropic a les dades: en executar Claude a través de Bedrock, Amazon actua com a processador de dades sota contracte amb el client. Anthropic, el desenvolupador de Claude, no té accés a les consultes, els contextos ni les respostes generades. Això és fonamentalment diferent d'usar l'API directa d'Anthropic.
-
Compliment GDPR: el processament compleix amb el Reglament General de Protecció de Dades de la UE, incloent-hi els principis de minimització de dades, limitació de finalitat i seguretat del tractament.
-
Compatibilitat amb l'AI Act: l'arquitectura està dissenyada per complir amb els requisits del Reglament Europeu d'Intel·ligència Artificial, que classifica els sistemes d'IA mèdica com a "alt risc" i imposa obligacions específiques de transparència, documentació i supervisió humana.[18]
Els experts: models especialitzats amb garanties
Els models experts — més petits i especialitzats que l'orquestrador — s'executen amb les mateixes garanties de seguretat. La separació entre l'orquestrador (que veu la pregunta completa) i els experts (que reben consultes fragmentades i descontextualitzades) proporciona una capa addicional de protecció: cap expert individual té accés al context clínic complet d'un cas.
UE/España — Bedrock Aragón
Pregunta médica
Orquestador
Expertos especializados
Corpus médico
Respuesta
Anthropic
Sin acceso a datos de inferencia
Arquitectura de soberanía de datos: todo el procesamiento ocurre dentro de la UE, sin acceso del proveedor del modelo a los datos de inferencia
| Parámetro | Tendencia MIR 2026 | Implicación |
|---|---|---|
| Ubicació del processament | España (UE) | Datacenter d'Amazon a Aragó. Totes les dades romanen en territori espanyol. |
| Accés del proveïdor del model | Sense accés | Anthropic no accedeix a dades d'inferència quan s'utilitza a través de Bedrock. |
| Compliment GDPR | Complet | Amazon com a processador de dades, BinPar com a responsable del tractament. |
| AI Act (alt risc) | Dissenyat | Arquitectura preparada per als requisits de transparència i supervisió de l'AI Act. |
Garanties de sobirania i protecció de dades en l'arquitectura ALMA
Implicacions per al sector sanitari
La demostració que és possible assolir el rendiment perfecte sense enviar dades mèdiques fora de la UE té implicacions profundes per a l'adopció d'IA al sector sanitari europeu. Històricament, les preocupacions sobre sobirania de dades han estat un dels principals frens a la implementació de sistemes d'IA mèdica a hospitals i centres de salut europeus.[19]
ALMA demostra que aquest dilema entre rendiment i privadesa és un fals dilema: és possible tenir tots dos.
9. Implicacions per a la IA Mèdica
Els resultats d'ALMA i MIRI reforcen i estenen conclusions que ja apuntàvem en articles anteriors, però amb una contundència sense precedents.
RAG Agèntic > Fine-tuning
En la nostra anàlisi anterior sobre "La Catedral i el Bazar", argumentàvem que la personalització mitjançant RAG ofereix avantatges fonamentals sobre el fine-tuning per a aplicacions mèdiques. ALMA i MIRI són la demostració empírica definitiva d'aquesta tesi.
Els estudis recents sobre agents d'IA en medicina clínica confirmen que els sistemes agèntics superen consistentment els models base, fins i tot quan aquests darrers han estat fine-tunejats específicament per al domini mèdic.[20] La raó és simple: un model fine-tunejat modifica els seus pesos de forma estàtica, mentre que un sistema RAG agèntic pot consultar informació actualitzada dinàmicament.
RAG vs. Fine-Tuning en tasques mèdiques. Dades de: MDPI Bioengineering 2025 (BLEU), PMC systematic review (al·lucinacions), medRxiv 2025 (agents).
La personalització sense modificar pesos
ALMA i MIRI utilitzen els mateixos models base que estan disponibles públicament (Claude per a ALMA, model confidencial per a MIRI). La diferència de rendiment no prové de modificacions en els models, sinó de:
- El corpus — quina informació se'ls proporciona
- L'arquitectura — com s'organitza la consulta
- Els experts — com s'especialitza el coneixement
- La iteració — quantes vegades es refina la resposta
Això significa que l'avantatge d'ALMA/MIRI és reproduïble per qualsevol organització que tingui accés a corpus mèdic de qualitat i la capacitat tècnica d'implementar una arquitectura agèntica.
El futur: actualització contínua del corpus
Potser la implicació més rellevant a llarg termini és que ALMA i MIRI poden millorar contínuament sense necessitat de reentrenar models. Quan es publica una nova guia clínica, s'actualitza un protocol terapèutic o es descobreix una nova associació diagnòstica, només cal actualitzar el corpus. El sistema incorpora el nou coneixement immediatament.
Aquest model de "coneixement com a servei" — on la intel·ligència resideix en el corpus i l'arquitectura, no en els pesos del model — podria redefinir com es desenvolupen i despleguen sistemes d'IA mèdica en la propera dècada.
10. Conclusions
ALMA demostra que la perfecció és assolible
600 preguntes. Tres anys d'exàmens dissenyats per seleccionar els millors metges d'Espanya. Zero errors. ALMA demostra que, amb l'arquitectura correcta, el corpus adequat i la inversió necessària, és possible construir un sistema d'IA mèdica que no falli. No "gairebé mai". Mai.
MIRI demostra que l'excel·lència és accessible
596/600 a un cost de $2,38. MIRI demostra que la precisió gairebé perfecta no requereix pressupostos astronòmics. Un estudiant de medicina pot accedir a un sistema que supera qualsevol model estàndard del mercat per un cost inferior al d'un cafè.
L'enfocament agèntic supera qualsevol model generalista
Cap model generalista — ni Gemini, ni GPT-5, ni Claude, ni cap dels ~290 avaluats — ha aconseguit mai 200/200 en una sola convocatòria. ALMA ho aconsegueix a les tres. MIRI ho aconsegueix a la més recent. L'especialització mitjançant experts, combinada amb un orquestrador de raonament avançat, produeix resultats que l'enfocament "un model per a tot" no pot igualar.
La sobirania de dades és compatible amb el màxim rendiment
ALMA processa tota la seva inferència a Espanya, sense enviar dades fora de la UE, sense que Anthropic accedeixi a les consultes. I tot i així obté el resultat perfecte. La privadesa i el rendiment no són objectius en conflicte.
El que ve
Aquests resultats obren la porta a desplegaments clínics reals de sistemes d'IA mèdica basats en RAG Agèntic. No com a substituts del judici clínic, sinó com a sistemes de suport al diagnòstic amb una fiabilitat demostrada i verificable.
A Medical Benchmark seguirem avaluant tant models estàndard com models custom, documentant l'estat de l'art amb el rigor i la transparència que caracteritzen la nostra plataforma. Tots els resultats estan disponibles a la nostra plataforma de rankings.
ALMA i MIRI han estat avaluats sota les mateixes condicions que els altres models del benchmark: mateix prompt, mateixes preguntes, mateix timing. Els resultats són verificables i reproduïbles. Tot i que les avaluacions s'han realitzat amb posterioritat a la celebració de cada examen, els models no disposen d'accés a internet ni d'informació alguna sobre els resultats o les respostes correctes de les preguntes, per la qual cosa no existeix possibilitat de contaminació de dades.
Notas y Referencias
- ALMA encerta no només les 200 preguntes oficials (vàlides després d'anul·lacions), sinó també les 10 preguntes de reserva (201-210) de cada convocatòria. Total: 210/210 x 3 anys = 630/630 incloent-hi reserves, 600/600 considerant només les preguntes vàlides de l'examen.
- Long, Y., et al. "LLMs Meet Synthetic Data Generation: A Survey". ACL 2024. La generació de dades sintètiques per a LLMs permet crear corpus optimitzats per a recuperació i raonament. Enllaç
- Amazon Bedrock a la regió eu-south-2 (Aragó, Espanya). Anthropic no accedeix a dades d'inferència en desplegaments Bedrock. Documentació de protecció de dades d'AWS Bedrock
- Càlcul: 0,995^600 ≈ 0,049, és a dir, un model amb 99,5% de precisió per pregunta té aproximadament un 4,9% de probabilitat d'encertar 600 preguntes consecutives. ALMA ho aconsegueix amb un 100% de precisió per pregunta.
- Singh, A., et al. "Agentic Retrieval-Augmented Generation: A Survey on Agentic RAG". arXiv:2501.09136, 2025. Enllaç
- "MA-RAG: Multi-Agent Retrieval-Augmented Generation". arXiv:2505.20096, 2025. Els sistemes multi-agent RAG superen els RAG tradicionals en precisió i capacitat de raonament. Enllaç
- Zuo, Y., et al. "KG4Diagnosis: A Hierarchical Multi-Agent LLM Framework with Knowledge Graph Enhancement for Medical Diagnosis". arXiv:2412.16833, 2024. Enllaç
- Zhang, C., et al. "AgentOrchestra: Orchestrating Specialized Agents for Complex Tasks". arXiv:2506.12508, 2025. Enllaç
- Zhuge, M., et al. "GPTSwarm: Language Agents as Optimizable Graphs". ICML 2024. Enllaç
- Long, Y., et al. "LLMs Meet Synthetic Data Generation: A Survey". ACL 2024. Enllaç
- Kumichev, A., et al. "MedSyn: LLM-based Synthetic Medical Text Generation Framework". arXiv:2408.02056, 2024. Enllaç
- Schut, L., Gal, Y., Farquhar, S. "Do Multilingual LLMs Think In English?". ICML 2025. Els models multilingües processen internament en anglès fins i tot amb entrades en altres idiomes. Enllaç
- "Multilingual Reasoning: A Survey of Challenges and Approaches". 2025. El raonament en anglès produeix millors resultats que en altres idiomes, fins i tot per a tasques en aquests idiomes. Enllaç
- Zhang, T., Kraska, T., Khattab, O. "Recursive Language Models". arXiv:2512.24601, 2025. Enllaç
- Luohe, S., et al. "A Survey on KV-Cache Optimization for Large Language Models". arXiv:2407.18003, COLM 2024. Enllaç
- Li, Y., et al. "SnapKV: LLM Knows What You are Looking for Before Generation". NeurIPS 2024. Enllaç
- "LMCache: Efficient KV-Cache Management for Large Language Models". arXiv:2510.09665, 2025. Enllaç
- Minssen, T., et al. "The EU AI Act and Its Implications for Medical Products". npj Digital Medicine, 2024. Enllaç
- "The EU AI Act: Implications for Healthcare AI Systems". 2024. Els sistemes d'IA mèdica es classifiquen com a alt risc sota l'AI Act, requerint avaluacions de conformitat i supervisió humana.
- "AI Agents in Clinical Medicine: Promise and Challenges". PMC, 2025. Els agents d'IA superen els models base en tasques clíniques en combinar raonament amb accés a coneixement especialitzat.