Ni oracle ni cercador: Karina Gibert posa límits a la IA generativa i en destaca les aplicacions empresarials útils

La catedràtica defensa, en una ponència a la Cambra de Comerç de Terrassa, el potencial de la tecnologia per caracteritzar, recomanar o predir, però reclama supervisió humana i criteri en l’ús professional

Publicat el 30 d’abril de 2026 a les 16:15
Actualitzat el 30 d’abril de 2026 a les 16:18

La irrupció de la intel·ligència artificial generativa ha obert noves oportunitats per a empreses i professionals, però també ha generat confusions sobre què pot fer realment. La catedràtica Karina Gibert, cofundadora del centre de recerca Intelligent Data Science and Artificial Intelligence de la UPC i degana del Col·legi Oficial d’Enginyeria Informàtica de Catalunya, ho ha deixat clar aquest dijous al Digital Summit de la Cambra de Comerç de Terrassa: “No la podem fer servir com a eina de consulta enciclopèdica”.

Gibert ha explicat que, a diferència d’un cercador, aquests sistemes no recuperen informació existent sinó que la construeixen. “Agafa tots aquests documents, se’ls aprèn i sintetitza una equació que està preparada per dir-li quina és la paraula més adequada que va darrere d’un tros de frase”, ha detallat. Aquest mecanisme implica que el resultat no es basa en la verificació de dades, sinó en probabilitats lingüístiques. Per això, advertia: davant determinades preguntes, “s’ho inventarà tot”.

Aquesta limitació, segons ha remarcat, no es resoldrà simplement amb més dades o més entrenament. “Fallarà de forma estructural”, ha afirmat. Per això, ha insistit que l’error és utilitzar-la com si fos un “Google plus plus”, mentre que sí que pot ser útil en tasques de transformació de contingut: resumir informes, transcriure reunions, traduir textos o classificar informació. “No li estem demanant que creï contingut que hagi de ser veraç, sinó que transformi uns continguts que ja tenim”, ha sintetitzat.

De la recerca a l’aplicació

De totes maneres, Gibert ha reconegut el potencial de la intel·ligència artificial i per contextualitzar-lo, ha repassat diversos projectes desenvolupats pel seu equip. Un dels més destacats és un sistema de salut digital iniciat el 2004, que plantejava un model centrat en el pacient a casa. Mitjançant agents intel·ligents, els diferents actors del sistema sanitari es coordinaven automàticament. 

  • Karina Gibert, durant la seva conferència a la Cambra de Comerç de Terrassa

També ha exposat una eina desenvolupada durant la pandèmia per donar suport a serveis socials, capaç de generar informes automàtics a partir de qüestionaris i prendre decisions pràcticament en temps real.

Altres aplicacions inclouen sistemes de manteniment predictiu —que anticipen avaries en maquinària—, solucions d’economia circular que connecten empreses per reutilitzar residus o un sistema que recull la informació de transaccions de targetes de crèdit segons perfils de consum a destinacions turístiques i la crea amb opinions a xarxes socials com Trip Advisor per ajudar a prendre decisions sobre polítiques de turisme, a turoperadors o negocis de restauració.

En tots aquests casos, la IA actua sobre dades per “caracteritzar, recomanar o predir”, les tres grans funcions que, segons Gibert, defineixen aquesta tecnologia.

Quan la IA s’equivoca: conseqüències reals

Ara bé, Gibert ha alertat també dels riscos d’una mala implementació de sistemes d’intel·ligència artificial. I ha posat com a exemple el cas dels Països Baixos, on un sistema va imputar erròniament frau en prestacions socials amb "26.000 famílies imputades”, ha recordat.

El problema no va ser només tècnic, sinó també de disseny i ús. “No podem ser imprudents quan entrenem una IA” ni tampoc desplegar-la sense validació, ha dit. I ha afegit un element clau: la manca de supervisió humana. En aquest sentit, ha defensat també no fer servir la IA "fora de la teva zona de confort", dels àmbits que tu domines, perquè  no en sabràs detectar els errors.

Així doncs, “no volem màquines prenent decisions”, sinó sistemes que ajudin a prendre-les millor. Sortir d’aquest marc, ha advertit, “és un risc monumental”.