Investigació sobre ús legítim de la IA en educació
Carles López Cerezuela
El sistema educatiu afronta el repte de la la incorporació de la IA generativa. Haurà de fer-ho com més prompte millor i amb un marc clar, transparent i compartit.
Les pautes actuals d’ús són difuses, desiguals entre centres i sovint es basen en pors, prohibicions implícites o sancions més que no en una integració pedagògica coherent.
Aquesta situació genera un “elefant a la sala”: l’alumnat utilitza IA per assolir tasques d’aprenentatge, però el professorat no disposa d’orientacions, no sap com interpretar-ho i respon segons criteris personals condicionats per l’edat, la formació prèvia, el nivell de confiança digital o la pròpia resistència al canvi.
El problema real és que, sense un marc legítim i pactat, l’ús de la IA es converteix en una pràctica irregular, sovint clandestina, que accentua desigualtats, confusions i conflictes d’avaluació.
L’educació no pot continuar ajornant este debat, perquè l’absència de criteris compartits perjudica tant l’aprenentatge de l’alumnat com la seguretat pedagògica del professorat.
Finalment, lLa transferència de coneixement és, per a mi, una responsabilitat essencial i inseparable de qualsevol procés d’investigació rigorós. No entenc la recerca com un exercici intel·lectual tancat, sinó com una pràctica que ha de tornar a la comunitat allò que la comunitat m’ha permés aprendre.
Per això, davant un tema emergent i potencialment confús com és l’ús de la intel·ligència artificial en educació, vaig considerar imprescindible crear un recurs pràctic que traslladara els resultats del meu treball a un format útil, accessible i immediatament aplicable. La guia web allotjada en www.universitatia.online naix exactament d’aquesta convicció: convertir un estudi acadèmic en una eina viva que puga orientar estudiants i docents, reduir pors, aclarir criteris i democratitzar l’accés a bones pràctiques.
En un moment en què la IA evoluciona més ràpid que les institucions, la transferència ja no és un afegit opcional, sinó una forma de responsabilitat pública: garantir que el coneixement generat no quede reclòs en un treball d'investigació sinó que es transforme en un instrument real de servei educatiu.
Sense un marc legítim, explícit i compartit, l’ús de la intel·ligència artificial en educació s’està convertint en una pràctica irregular i sovint invisible o furtiva en la major part dels casos, amb respostes desiguals segons el professorat i amb criteris d’avaluació poc coherents.
Aquesta absència de directrius d’ús positiu, legítim, crític i transparent genera desigualtats entre l’alumnat, incrementa la confusió pedagògica i deixa el professorat exposat a decisions improvisades.
El sistema educatiu no acaba d’afrontar el debat de forma proactiva, però la manca de criteris és precisament el factor que més perjudica l’aprenentatge i la seguretat pedagògica de tots els agents implicats.
He incorporat un resum de cada estudi seleccionat. La tria no és casual: he volgut treballar amb diversos blocs de recerca —valenciana, anglosaxon/aamericana, espanyola/llatinoamericana, escandinava i xinesa— perquè la bibliografia sobre ciències socials ha estat molt influenciada en l'últim segle pel marc cognitiu nord-americà que marca tendències, però també limita la mirada. L’ecosistema anglosaxó és extraordinàriament productiu en recerca, però genera una mena de monocultiu epistemològic que condiciona què es pregunta, què es publica i com s’interpreta.
Per això he volgut diversificar.
Documentació de proximitat. Guies i normatives d'universitats valencianes com ara la Universitat de València, la Universitat Politècnica de València i la Universitat Jaume I de Castelló. Destacant que no hem trobat res al respecte en la Universitat d’Alacant.
Els estudis escandinaus aporten una perspectiva que combina tecnologia, benestar i governança pública, amb un enfoc més social i menys mercantilista. Això és clau en educació i especialment en FOL, perquè vincula IA, mercat laboral i polítiques d’equitat de manera més equilibrada.
Els treballs en castellà espanyols i llatinoamericans introdueixen contextualització educativa, desigualtats digitals i pràctiques reals d’aula, amb una sensibilitat pedagògica més aterrada en la realitat escolar local.
Els estudis anglosaxons/americans que aporten una visió molt concreta del món individualista i mercantilista dels fenòmens socials que han tingut un pes molt important en l'últim segle.
I els estudis xinesos/orientals representen la potència tecnològica que està marcant el futur immediat. Aporten una visió pragmàtica, altament experimental, centrada en dades massives, aplicacions concretes i desenvolupament accelerat. Ignorar-los seria condemnar-se a entendre només una part del món.
La intenció, per tant, és construir una lectura més plural, rigorosa i global sobre IA educativa. No es tracta de sumar cultures per exotisme, sinó de desactivar l’angle mort que genera la dependència exclusiva del paradigma anglosaxó. La IA que arriba a les aules no és patrimoni d’un únic model cultural i, si volem preparar l’alumnat per al que ve, cal un enfoc que no siga regional occidental.
He treballat amb diversos sistemes diferents de recerca perquè volia que el procés d’investigació fora coherent amb el moment tecnològic en què ens trobem. Aquesta investigació no és només una anàlisi de continguts, sinó també un metatreball: una forma de verificar fins a quin punt podem confiar en diferents eines d’IA, quins usos són realment contrastables i quins ens obliguen a acceptar una certa opacitat pròpia de la “caixa negra” de la IA generativa.
He de dir, com a primer resultat que la meua hipòtesi era que que Deepseek (IA d’una empresa xina) podria ser la millor porta d’entrada al coneixement d’aquell espai de pensament però ha fallat estrepitosament donant estudis sense contrast ni verfificació i fins i tot links erronis. L’única IA que ha trobat fonts rellevants respecte a la recerca ha sigut Chat GPT model 5.1. Així la major part de les fonts provenen d’eixe model i unes poques provenen de Notebook LM que sent un producte de Google hauria de ser un model de referència en la recerca però també ha donat resultats falsos o no rastrejables. Finalment per als documents valencians he utilitzat el sistema clàssic de recerca amb Google i el seu page rank. Este tipus de procediment és imprescindible per al propi treball ja que necessitem establir els límits i les potencialitats de la ferramenta en el moment actual.
En cada font hi ha una espècie de resum. Un dels avantatges d’usar models de IA Generativa en la lectura de documents és que et permet accedir a documents en qualsevol idioma. Això és en la teoria ja que com es pot comprovar pràcticament tots estan en anglés.
La literatura recent sobre IA generativa i educació superior convergeix en una mateixa inquietud: la tensió entre el potencial cognitiu d’eines com ChatGPT i el risc real que suposen per a l’autonomia intel·lectual dels estudiants. L’arribada massiva d’aquests models ha introduït una nova capa d’intermediació algorítmica en els processos d’aprenentatge, amb efectes ambivalents.
D’una banda, poden simplificar tasques, accelerar anàlisis i oferir suport en la verificació d’arguments; de l’altra, poden fomentar dependència, passivitat i delegació acrítica del raonament. Les aportacions de Sainz González situen aquest debat en un marc més ampli de governança, riscos polítics i responsabilitats docents, recordant que la qüestió no és tecnològica sinó cultural i pedagògica. El repte ja no consisteix a incorporar IA, sinó a fer-ho sense sacrificar les competències que donen sentit a la universitat.
Cinc claus
La irrupció dels models de llenguatge genera desvinculació cognitiva: una delegació massiva de processos mentals que erosiona autonomia, capacitat analítica i creativitat, debilitant les competències que defineixen l’excel·lència universitària.
La IA no és una revolució disruptiva comparable a internet, sinó una fase més en l’adaptació tecnològica universitària; el seu perill real apareix quan la pressió comercial empeny a una adopció acrítica i instrumental.
L’ús pedagògic ben dissenyat pot activar un efecte avaluador: la IA funciona com a mirall del pensament crític, estimulant metacognició, contrast d’arguments, identificació de biaixos i verificació constant.
La competència central passa per l’alfabetització algorítmica: entendre el funcionament intern, les dades, els biaixos i les limitacions dels models, per formar no sols usuaris, sinó auditors capaços d’avaluar, interpretar i qüestionar la IA.
La governança global de la IA educativa oscil·la entre tres riscos: sobre-regulació europea que pot ofegar la innovació, desregulació nord-americana que exposa a opacitat i explotació, i control ideològic xinés que anul·la la llibertat acadèmica. El repte universitari és trobar un equilibri que protegisca drets i, alhora, permeta innovació responsable.
Enllaç: https://www.uv.es/arteweb/GU%C3%8DA%20DEL%20USO%20DE%20LA%20IA.pdf
Aquest document estableix el marc normatiu per al correcte ús de la intel·ligència artificial en el Departament d’Història de l’Art de la Universitat de València. Defineix principis generals —ètica, transparència, autonomia crítica, inclusió i sostenibilitat— i concreta quins usos estan permesos o prohibits tant per a l’alumnat com per al professorat. El text posa l’accent en la necessitat d’incloure declaracions d’ús d’IA en els treballs, garantir la revisió humana, evitar la delegació acrítica i fomentar la formació crítica sobre els models algorítmics. La política defensa la primacia del judici humà i alerta del risc de subordinació pedagògica davant sistemes automatitzats, integrant així un enfocament humanista i preventiu en l’ecosistema digital educatiu.
Cinc claus del document
Transparència obligatòria: tot ús d’IA en treballs acadèmics ha de ser declarat, detallant eines, tipus d’ús i grau d’edició humana.
Primacia del judici humà: la IA és un suport, no un substitut; el document alerta del risc de delegació cognitiva i defensa la sobirania pedagògica.
Marc ètic i de sostenibilitat: es vincula l’ús d’IA amb integritat acadèmica, equitat, accés igualitari i consciència ambiental.
Doble regulació d’ús: delimita usos permesos i prohibits tant per a estudiants com per a docents, amb exemples concrets.
Alfabetització crítica: es promou la formació en lectura crítica de l’IA, incloent els seus biaixos, límits i implicacions de poder.
Aquest document, elaborat dins de l’estratègia de transformació digital de la Universitat Politècnica de València, presenta unes recomanacions integrals per a l’ús responsable de la intel·ligència artificial en docència, investigació i gestió universitària. El text integra principis ètics, pautes per a estudiants i professorat, criteris de transparència i advertiments contra la dependència excessiva de sistemes algorítmics. La guia inclou un procés explícit de construcció mitjançant IA generativa, destaca la necessitat d’evitar el desaprenentatge organitzatiu, promou l’equitat d’accés i insta a revisar els models d’avaluació davant la facilitat d’automatització de tasques acadèmiques. Finalment, recull marc normatiu, recursos i exemples d’altres institucions per reforçar la governança responsable.
Alineació estratègica amb la institució: la IA ha de reforçar els valors i objectius de la UPV, no erosionar-los.
Transparència sistemàtica en tots els rols: estudiants, professorat i personal han de declarar com utilitzen la IA, amb detalls de plataforma, prompts i finalitat.
Evitar el desaprenentatge: la IA ha de servir per ampliar capacitats, no per substituir habilitats essencials o empobrir el procés d’aprenentatge.
Revisió del model d’avaluació: s’adverteix que moltes tasques no presencials poden ser automatitzades amb IA, i es recomana ajustar-ne el pes o verificar-les en presencial.
Governança ètica i protecció de dades: el document reforça la necessitat de complir el RGPD, detectar possibles biaixos, verificar informació i evitar discriminacions tecnològiques.
Enllaç: https://ujiapps.uji.es/ade/rest/storage/PQ78IBHSNLDOTJULUG57UHUIE8UQLUKB
Aquest document estableix les directrius oficials de la Universitat Jaume I per a guiar l’ús responsable de la intel·ligència artificial generativa en l’àmbit acadèmic. Parteix d’un reconeixement del seu impacte creixent en la producció de coneixement i l’aprenentatge universitari, però també dels riscos associats en matèria d’ètica, privacitat, protecció de dades i integritat acadèmica. El text remarca el compromís de l’UJI amb la legalitat vigent, el Reglament d’IA de la Unió Europea i les directrius europees d’IA fiable, i articula normes sobre protecció de dades, responsabilitat en la verificació de la informació, citació de continguts generats per IA i prevenció de la desinformació i la suplantació d’identitat. Finalment, regula l’ús d’eines institucionals com Copilot i Gemini, i estableix criteris per a l’adquisició de noves llicències, assegurant que tota implementació respecte els principis de seguretat, transparència i supervisió humana.
Les cinc claus de les Directrius
1. Protecció estricta de dades personals i informació confidencial
S’estableix la prohibició d’introduir dades personals o informació sensible en sistemes d’IA oberts que no garantisquen confidencialitat. Només es podran usar eines prèviament avaluades per la Universitat, d’acord amb el RGPD i les polítiques internes de seguretat.
2. Responsabilitat directa sobre la qualitat i verificació de la informació generada
L’usuari és responsable del resultat produït per la IA. Ha de verificar-ne l’exactitud, detectar possibles al·lucinacions o biaixos, comprovar el respecte dels drets d’autor i evitar la difusió d’informació errònia o protegida.
3. Integritat acadèmica i prohibició de simular autoria
L’ús de la IA pot ser legítim com a suport (resums, esquemes, localització de fonts), però és desaconsellat com a font primària. Qualsevol ús ha de ser citat adequadament. Presentar com a propi un text generat totalment o parcialment per IA constitueix mala conducta acadèmica.
4. Compliment dels requisits europeus d’IA fiable i supervisió humana
En l'àmbit de la investigació, els sistemes d’IA s’han d’ajustar als set principis d’IA fiable de la Comissió Europea: supervisió humana, solidesa tècnica, gestió de privacitat i dades, transparència, equitat i no discriminació, benestar social i ambiental, i rendició de comptes.
5. Prevenció de riscos digitals i regulació de llicències institucionals
La UJI adverteix sobre riscos de desinformació, “deepfakes” i suplantacions d’identitat generats per IA. A més, regula l’ús de llicències institucionals (Microsoft Copilot i Google Gemini) i obliga a contactar amb l’equip responsable abans d’adquirir qualsevol altra eina per garantir-ne la seguretat jurídica i tècnica.
La investigació titulada “Implicaciones éticas del uso de Inteligencia Artificial en educación superior” es va desenvolupar mitjançant una metodologia mixta amb dues fases principals: una revisió sistemàtica de la literatura especialitzada i una investigació de camp a través d’enquestes a estudiants universitaris. L’objectiu general era explorar els desafiaments ètics per a potenciar l’aprenentatge i la innovació pedagògica sense comprometre la integritat acadèmica ni agreujar les desigualtats.
A partir de l’anàlisi de articles, la revisió sistemàtica va identificar sis categories principals de desafiaments ètics en l’educació superior:
1. Regulació: el desafiament més urgent (90%)
La necessitat d’establir marcs normatius és el tema més recurrent en la literatura, present en el 90% dels articles revisats (18 articles). Esta categoria subratlla la urgència de crear polítiques i directrius ètiques clares per a l’ús de la IA en educació, tant a escala institucional com governamental. La regulació ha d’abordar qüestions com la privacitat, la transparència i l’equitat.
2. Responsabilitat institucional (80%)
Un 80% dels articles (16 articles) destaca el paper crucial de les institucions educatives. Esta responsabilitat inclou l’elaboració de polítiques institucionals, la supervisió i gestió ètica de la IA i la formació del personal per a garantir una implementació responsable. L’estudi també analitza com assegurar la inclusivitat i gestionar els reptes ètics associats a les eines generatives.
3. Paper del docent (80%)
La majoria dels articles (80%) analitza com la IA està redefinint el rol dels educadors, explorant l’adaptació de les pràctiques pedagògiques i la necessitat de formació contínua en IA. La IA no substitueix el docent, sinó que el resignifica com un agent clau en la formació integral. Este nou paper el converteix en dissenyador d’experiències d’aprenentatge, formador en competències del segle XXI i mediador ètic.
4. Integritat acadèmica (65%)
El 65% dels articles (13 articles) se centra en els nous reptes que les eines de IA generativa (com ChatGPT) plantegen per a la integritat acadèmica. Este debat inclou la detecció de plagi assistit per IA, l’autenticitat del treball estudiantil i les implicacions ètiques de l’ús d’IA en tasques acadèmiques. L’aparició sobtada de ChatGPT ha obert una “nova caixa de Pandora” que situa el plagi acadèmic a l’abast de qualsevol.
5. Educació ètica per a l’ús de la IA (75%)
Categoria destacada (75% dels articles, 15 articles), que posa l’accent en la necessitat d’integrar l’ètica de la IA en els programes educatius. L’educació ètica ha d’incloure alfabetització en IA, pensament crític i resolució de problemes per a preparar l’estudiantat en un entorn impulsat per la IA.
6. Alfabetització en IA (30%)
Tot i ser la categoria menys habitual (30% dels articles, 6 articles), l’estudi la identifica com una competència crucial. L’alfabetització en IA fa èmfasi en la importància de desenvolupar habilitats crítiques per interactuar amb aquestes tecnologies i avaluar-les de manera informada i responsable en contextos educatius.
Conclusions de la investigació de camp (percepcions de l’alumnat)
La fase de camp, basada en enquestes a estudiants universitaris, va complementar la revisió teòrica i va revelar:
Actitud positiva i utilitat: L’estudiantat va mostrar una actitud generalment positiva cap a ChatGPT, reconeixent la seua utilitat i la importància d’aprendre sobre IA.
Preocupació per la “peresa mental”: Es va detectar inquietud sobre el risc que la IA fomente la passivitat cognitiva.
Manca de transparència: Les pràctiques de citació i verificació de fonts van ser molt variades, amb tendència a no citar ChatGPT. Esta falta de transparència mostra una necessitat urgent de formació en integritat acadèmica en l’era de la IA.
Correlacions i uniformitat: Es va trobar una correlació dèbil però significativa entre la titulació i la percepció ètica (Rho = -0.162), suggerint diferències lleus entre disciplines. L’edat no va mostrar correlació significativa amb el nivell ètic (Rho = 0.024), cosa que podria indicar una exposició relativament homogènia a estes discussions en el context analitzat.
En resum, la conclusió principal de l’estudi és que la integració efectiva de la IA en l’educació superior ha d’anar acompanyada de marcs reguladors sòlids (90%), integració de l’ètica de la IA en els currículums i formació docent específica per assegurar una implementació responsable. Estos tres pilars aborden els principals desafiaments ètics identificats en la literatura.
Principi Operatiu Central: L'Amplificació del Judici Humà
El nucli conceptual del document estableix un principi operatiu senzill, però contundent: "La IA ha d'actuar com a amplificadora del judici humà, no com el seu substitut".
Aquesta premissa es basa en la idea que l'ús de la IA pot ser una eina d'amplificació del coneixement, però mai ha de delegar completament les decisions crucials. L'experiència docent continua sent fonamental a l'hora de dissenyar avaluacions, interpretar resultats i proporcionar informació matisada.
En aquest sentit:
La IA no ha de soscavar l'autonomia ni la capacitat creativa de les persones,.
La revisió final, l'avaluació del pensament crític o la certificació de competències no pot delegar-se a un model d'IA.
El paper de l'educador es transforma, convertint-se en un dissenyador d'experiències cognitives en lloc de ser només un avaluador de productes finals.
Tres Condicions Bàsiques de Governança per a l'Ús Legítim
Per tal que la IA amplifique el judici humà i es professionalitze el seu ús a l'aula universitària, es requereixen tres condicions bàsiques de governança que asseguren la transparència i la responsabilitat:
1. Documentació del model: Qualsevol ús acadèmic de la IA ha de registrar quin model es va utilitzar (per exemple, ChatGPT 4, Gemini, Claude, etc.), incloent-hi la seua versió i data. Aquesta traçabilitat és essencial perquè permet comprendre quins biaixos o limitacions podrien haver influït en el resultat generat.
2. Traçabilitat de prompts: S'ha de conservar un registre de les instruccions donades al sistema (els prompts o indicacions). Aquesta pràctica de registre facilita la revisió pedagògica, evidenciant el procés de raonament seguit per l'estudiant, i ajuda a garantir que la IA no es perceba com una "caixa negra",. En l'àmbit acadèmic, l'alumnat que utilitza IA generativa ha d'aportar un informe d'ús que incloga les eines utilitzades, les instruccions donades i els resultats obtinguts.
3. Verificació humana: La intervenció docent i de l'estudiant segueix sent el punt de control,,. La persona que utilitza la IA és la responsable de les accions i decisions que es prenguen a partir d'aquest ús. El docent ha de mantenir una implicació personalitzada i la supervisió del treball i les avaluacions dels estudiants millorades per la IA. La validació final del coneixement és, per tant, sempre humana.
Política Explícita d'Ús i Distinció entre Ús Legítim i Il·legítim
El document emfatitza la necessitat d'una estratègia clara per prevenir l'ús indegut de la IA.
Política Clara i Col·laborativa: Es recomana que cada assignatura incloga una política d'IA redactada de manera explícita, idealment en col·laboració amb els estudiants,. Aquesta política ha de distingir de manera clara l'ús legítim de l'ús indegut.
Objectiu Formatiu: La finalitat d'aquesta política no és només sancionar, sinó formar el criteri ètic de l'alumnat, ensenyant-los a discernir quan la IA ajuda realment a aprendre i quan reemplaça l'esforç intel·lectual de manera indeguda,. L'objectiu no és prohibir la tecnologia, sinó ensenyar a usar-la amb prudència.
Transparència Obligatòria: L'ús legítim implica la transparència,. Si els estudiants utilitzen la IA per donar suport al seu treball, se'ls ha d'encoratjar a revelar-ho, ja que la falta d'atribució es considera deshonestitat acadèmica,. Aquesta divulgació pot ser tan senzilla com una frase al final de la tasca,.
Redisseny d'Avaluacions: L'estratègia més eficaç per fomentar l'ús legítim és redissenyar les avaluacions, ja que intentar detectar l'ús de la IA amb eines tècniques és difícil,. Els resultats d'aprenentatge s'han de centrar en el procés (la cadena d'evidència, prompts i fonts verificades), el pensament crític, la creativitat i l'originalitat, en lloc de només el producte final,. Això reforça que l'ús de la IA no substitueixi l'aprenentatge,.
Microcursos: Per a garantir l'ús legítim, es proposa que els estudiants facen un mòdul breu d'alfabetització en IA abans d'utilitzar eines generatives. L'objectiu és que entenguen el funcionament dels models (LLMs), els riscos (biaixos, al·lucinacions) i avaluen críticament les respostes generades per la IA.
Enllaç: https://xarxatic.com/wp-content/uploads/2023/08/PROTOCOLO_IA_CENTROSEDUCATIVOS.pdf
Aquest protocol té com a objectiu primordial facilitar la integració ètica, segura i eficaç de la IA en els centres educatius.
Cinc Claus:
Objectius Ètics Fonamentals: Els objectius del protocol inclouen promoure l'ús responsable de la IA per a augmentar les capacitats humanes i defensar els principis d'equitat, transparència, rendició de comptes i no discriminació.
Supervisió Humana Obligatòria: És essencial garantir una supervisió humana adequada per part del professorat, mantenint la implicació en les decisions i comprenent els resultats dels sistemes d'IA. El professorat ha d'executar les eines i examinar qualsevol resultat abans que l'alumnat hi tinga accés, excepte en jocs o aplicacions tancades i aprovades.
Integritat Acadèmica i Plagi: El text generat per IA no és tècnicament plagi ja que és contingut creat ex novo. Tanmateix, presentar aquest contingut com a treball original sense l'atribució deguda es considera una violació dels estàndards d'integritat acadèmica, aplicant-se les polítiques de plagi existents.
Alfabetització en IA: El protocol emfatitza la importància de fomentar una cultura d'alfabetització en IA i de pensament crític sobre els impactes, limitacions i ús responsable de les tecnologies d'IA.
Responsabilitats Definides: Les responsabilitats es distribueixen entre el professorat (formar l'alumnat, avaluar les eines per precisió i biaixos, i supervisar) i l'alumnat (utilitzar la IA per complementar el pensament crític i citar adequadament qualsevol informació obtinguda).
Aquesta guia ofereix un marc per a l'ús legítim de la IA en tots els àmbits universitaris (docència, aprenentatge, investigació i gestió) a la Universitat de Granada (UGR).
Enllaç: https://ceprud.ugr.es/formacion-tic/inteligencia-artificial/recomendaciones-ia
Cinc Claus:
Transparència i Polítiques Clares: El docent ha d'establir directrius clares sobre l'ús permès de la IA a cada assignatura, incloent-les a les guies docents i consensuant-les amb els estudiants. A més, s'ha de declarar l'ús de la IA en els processos administratius i documents generats.
Protecció de la Privadesa de Dades: És crucial complir amb el Reglament General de Protecció de Dades (RGPD) i la LOPD. Es recomana evitar l'enviament de dades sensibles a eines públiques i prioritzar l'ús d'eines proporcionades per la UGR (com els comptes institucionals de Copilot o Gemini) per a garantir que les dades estiguen protegides i no s'utilitzen per a entrenar els models.
Verificació Crítica: Tant per a la docència com per a l'aprenentatge, s'ha d'adoptar una actitud crítica amb la informació aportada per la IA, contrastant-la amb altres fonts, assegurant-se de la seva veracitat i sent conscient de l'impacte del biaix dels algoritmes.
Integració Complementària: L'ús de la IA ha de ser complementari a l'esforç personal i al pensament crític, sense substituir-los. La IA s'ha de veure com una eina de suport a l'aprenentatge, no com una delegació de l'autonomia.
Adaptació Metodològica i Avaluativa: Els docents han d'ajustar les metodologies d'avaluació per tenir en compte l'ús de la IA per part de l'alumnat, buscant explorar avaluacions personalitzades i promovent l'aprenentatge actiu i col·laboratiu.
Aquesta guia, elaborada per la Universitat de Cadis (UCA), se centra específicament en els riscos i l'ús responsable de la IA Generativa (IAG).
Cinc Claus:
Riscos Ètics Principals: La guia detalla quatre grans preocupacions ètiques i legals de la IAG: Biaix i Discriminació (perpetuació dels biaixos dels models d'entrenament), Privacitat i Protecció de Dades, l'Impacte Negatiu en el Pensament Crític (a causa de l'ús excessiu) i el Plagi i la Propietat Intel·lectual.
Foment de l'Equitat d'Accés: És una directriu clau prendre mesures per a garantir oportunitats iguals d'accés a les eines d'IA premium per a tot l'alumnat, evitant així aprofundir en la bretxa digital.
Formació i Validació de Resultats: Cal capacitar l'alumnat per a usar la IA de manera eficient, i el docent ha d'avaluar si els estudiants tenen la capacitat de validar o contrastar els resultats generats per la IA.
Transparència i Protecció de Dades: Es recomana anonimitzar dades sensibles i utilitzar eines amb garanties de confidencialitat, com les que la UCA ha establert mitjançant acords amb empreses (Google i Microsoft) per a una major seguretat.
Directrius Avaluatives: Es proposa que, per a un ús legítim, els docents consideren sempre si l'ús d'IA és apropiat segons l'objectiu de la tasca d'aprenentatge i s'orienten a mètodes d'avaluació que requereixquenl'expressió autèntica del pensament, com defenses orals o projectes d'investigació.
Enllaç (Link): L'article que conté aquesta guia pràctica es troba al blog de la UCASAL: https://www.ucasal.edu.ar/entrada-innovalab/citar-contenido-generado-por-ia-guia-practica-para-estudiantes-y-academicos
Aquesta font se centra en la transparència com a pilar de l'ús legítim de la IA en la producció acadèmica.
Cinc Claus:
Objectiu: Integritat i Transparència: L'objectiu de citar la IA és doble: complir amb les normes ètiques i acadèmiques i ser transparent sobre l'ús d'eines com ChatGPT.
Format de Citació Essencial: S'ha de citar el contingut generat per IA especificant-ne la versió del model, la data de la generació i l'enllaç a l'eina utilitzada.
Adaptació a Estils Acadèmics: La guia proporciona pautes clares per a citar el contingut generat per IA segons els estils de referència més utilitzats, com ara APA, Vancouver, MLA i Chicago.
Prevenció de la Deshonestedat: La falta d'atribució del contingut generat per IA és considerada deshonestedat acadèmica. L'ús legítim implica utilitzar la IA com una eina de suport (per a idees o esborranys) i citar-la, mai presentar-la com a treball propi sense declaració.
Exigència d'un Informe d'Ús: Quan es permet l'ús de la IAG, l'alumnat ha d'aportar un informe que detalle les eines utilitzades, les instruccions donades (prompts) i els resultats obtinguts, reforçant la transparència del procés.
Enllaç (IEEE Xplore):https://www.researchgate.net/publication/385503545_Application_and_Prospect_of_Artificial_Intelligence_in_Personalized_Learning
Aquest estudi de cas investiga l'efectivitat dels sistemes de tutorització intel·ligent i les plataformes d'aprenentatge adaptatiu desenvolupades i implementades en contextos educatius xinesos.
5 idees clau
1. Eficàcia dels Sistemes de Tutorització Intel·ligent: L'estudi demostra que les plataformes d'aprenentatge adaptatiu permeten millores significatives en el rendiment acadèmic, especialment en matemàtiques i ciències.
2. Personalització Autèntica mitjançant Algorismes: Les plataformes analitzen en temps real el progrés, estils d'aprenentatge i dificultats específiques de cada estudiant, ajustant automàticament els continguts i exercicis.
3. Retroalimentació Immediate i Contínua: Els sistemes proporcionen correccions i suggeriments instantanis als estudiants, permetent-los identificar i superar els seus errors de manera més eficaç que en entorns tradicionals.
4. Integració amb el Curriculum Nacional: Les solucions d'IA estudiades estan dissenyades específicament per a alinear-se amb el currículum educatiu xinès, complementant (no substituint) l'ensenyament formal.
5. Reptes d'Implementació: Tot i els bons resultats, l'estudi identifica dificultats com la necessitat de formació docent, la resistència al canvi pedagògic i els costos d'implementació a gran escala.
IA Y EDUCACIÓN. Radiografía de la percepción ciudadana sobre el rol e impacto de la Inteligencia Artificial en el Sistema Educativo Español
Enllaç: https://cotec.es/proyectos-cpt/ia-y-educacion/
Introducció
L’informe de Cotec ofereix una panoràmica estadística sobre com la ciutadania espanyola percep la irrupció de la IA en el sistema educatiu. No parla d’hipòtesis pedagògiques ni de futurismes tecnològics: exposa dades nues sobre expectatives, pors i demandes que ja condicionen qualsevol política educativa.
La fotografia és clara: la IA es considera inevitable, però no està normalitzada; es reconeixen oportunitats administratives i docents, però s'alimenta un vertader vertigen sobre el seu impacte cognitiu, ètic i social. El document apunta a tres tensions estructurals: l’equilibri entre innovació i prudència, la necessitat d’una formació docent que encara no existeix i el repte d’introduir la IA sense ampliar les desigualtats. És una peça útil per entendre què pot acceptar, què rebutja i què exigeix la ciutadania abans de desplegar polítiques serioses d’IA educativa.
Cinc claus
Percepció d’inevitabilitat, però també de risc
Més del 65% creu que la IA ja està entrant a les escoles, i tres de cada quatre pensen que els joves la necessitaran com a eina laboral futura. Tot i això, més del 60% identifica amenaces greus com manipulació informativa, dependència i impacte sobre les habilitats cognitives, especialment lectoescriptura (pàg. 3 i 6) .
Introducció sí, però amb límits i en edats tardanes
El 75,5% considera que la IA ha de tindre presència educativa, però no en qualsevol etapa: el 70% defensa introduir-la només a partir dels 12-16 anys (pàg. 11) .
Oportunitats centrades en docents i administració, no en alumnat
Els principals beneficis percebuts són administratius: automatització de tasques (72%), reducció de la càrrega burocràtica (65%) i millors polítiques basades en dades (64%). En menor mesura, es valora la personalització i l’atenció a NEE (pàg. 5) .
Forta preocupació per la manca de formació docent
Aproximadament el 60% del professorat i de la població general pensa que els docents no estan preparats per a un ús didàctic de la IA, tot i que alhora el 68% creu que ja s’està utilitzant en les escoles d’alguna forma (pàg. 8) .
Demanda social d’evidència i alfabetització ètica
Més del 70% exigeix més recerca abans de prendre decisions polítiques sobre la IA en educació, i el 81,5% defensa que l’escola ha d’ensenyar el seu ús ètic i responsable, ja siga amb assignatura pròpia o de manera transversal (pàg. 12-13) .
Digital Transformation and Smart Education in China: Current Status and Challenges (Zhang, 2025)
L’article de Zhang ofereix una revisió sintètica de l’estat de la smart education a la Xina en plena “tercera revolució educativa”. El text descriu un ecosistema altament tecnificat, impulsat per IA, IoT, VR, AR i plataformes estatals massives, que ha transformat les aules en entorns interactius, personalitzats i basats en dades.
El document se sosté en tres eixos: l’ambició de transformació nacional, els avanços tangibles ja desplegats (polítiques, plataformes, casos d’ús, impactes mesurats) i els reptes estructurals que continuen limitant el model (desigualtats territorials, manca de materials, alfabetització digital insuficient i riscos ètics). L’article s’inscriu clarament en el marc de la política tecnonacionalista xinesa i ajuda a entendre la diferència entre ecosistemes d’IA educatives centralitzats, governats per planificació estatal, i els models occidentals descentralitzats.
Cinc claus
Smart education com a tercera gran transformació educativa
L’article situa la digitalització educativa xinesa com un procés històric equiparable a la creació de l’escola moderna, impulsat ara per IA, IoT, VR i AR. Aquesta “tercera revolució” redefineix el model d’aula, lògiques d’aprenentatge i rols docents (p. 1-2) .
Smart classrooms molt avançades però desiguals
La Xina ha desplegat un model de S.M.A.R.T teaching (showing, manageable, accessible, real-time, testing), altament basat en dades, personalització i interacció constant, amb integració d’eines avançades com robots, drons, 3D printing i AR (p. 2-4) . Tot i això, subsisteixen grans desigualtats entre zones urbanes i rurals.
Fort impuls estatal i infraestructures nacionals massives
La digitalització no és espontània, sinó planificada: Education Informatization 2.0, China Education Modernization 2035, AI Development Plan, Smart Education Platform i escenaris d’“AI+Education” impulsen una infraestructura educativa centralitzada amb recursos digitals per a totes les etapes (p. 4-6) .
Resultats positius en implicació, rendiment i alfabetització digital
La investigació citada indica millores en implicació, aprenentatge actiu, rendiment acadèmic i competència digital. El model fomenta també pràctiques com game-based learning, entorns immersius i anàlisi psicològica i cognitiva basada en IA (p. 6-9) .
Reptes estructurals: bretxa digital, manca de formació docent i riscos ètics
Persistixen limitacions materials, baixa alfabetització digital en zones remotes, docents poc preparats, sobrecàrrega cognitiva, saturació de dades, vulnerabilitat de la privacitat i pèrdua d’orientació ètica. L’article remarca la necessitat de formació intensiva, nous rols docents i política preventiva en dades i ètica (p. 7-9) .
Research on the Innovation of Intelligent Teaching Models in Higher Education from the Perspective of Human–AI Teaching (Gao, 2025)
https://journals.zeuspress.org/index.php/CAI/article/view/443
Aquest article analitza com la irrupció de la IA generativa i els sistemes intel·ligents està transformant el model docent universitari cap a un paradigma de Human–AI Teaching, on docents i IA cooperen com a agents cognitius. El text descriu una transició clara: de la IA com a eina auxiliar a la IA com a participant actiu en el disseny didàctic, la retroalimentació i el desenvolupament de competències.
A partir de teories com el constructivisme, el model SOR i la col·laboració humà-màquina, el treball formula un model de quatre dimensions que articula la transformació intel·ligent de l’aula universitària. A més, incorpora estudis de cas (Zhejiang University i East China Normal University) i proposa un sistema d’innovació amb cinc elements i deu estratègies per implantar la docència híbrida humano-algorísmica a escala institucional. El document se situa dins del corrent xinesc d’“educació intel·ligent”, caracteritzat per integració profunda, retroalimentació contínua i governança pedagògica basada en dades.
Cinc claus
Human–AI Teaching com a nou paradigma docent
El text descriu el pas de “docent humà amb suport de màquina” a un model en què IA i professorat comparteixen funcions: generació de contingut, assistència cognitiva, anàlisi d’aprenentatge i personalització adaptativa (p. 1-2) .
Model de quatre dimensions per a la transformació intel·ligent
El Four-Dimension Driving Pathway articula la innovació docent en tecnologia, escenaris, feedback i competències. La taula 1 (p. 3) resumeix les funcions: IA com a generadora de coneixement, integració d’aules híbrides i simulacions, analítica d’aprenentatge predictiva i desenvolupament d’habilitats d’autoregulació i alfabetització en IA .
Casos universitaris que evidencien millores reals
Zhejiang University utilitza GAI per augmentar la interacció a classe, millorar la qualitat de les preguntes i reduir tasques repetitives del docent, mentre que East China Normal University aplica plataformes SPOC amb gràfics de coneixement, Q&A intel·ligent i recomanació adaptativa. Tots dos casos mostren increments en participació, autoaprenentatge i presa de decisions basada en dades (p. 3-4) .
Desafiaments estructurals: alfabetització docent, rols difusos i retroalimentació insuficient
El text identifica tres obstacles crítics en universitats: ús superficial de la IA, manca de definició clara dels rols docent–IA i absència de sistemes robusts de feedback intel·ligent. Aquests factors dificulten passar del pilotatge a l’adopció sistemàtica (p. 2) .
Sistema institucional d’innovació amb cinc elements i deu estratègies
El Five Key Elements and Ten Strategies Innovation System (taula 2, p. 4) articula: planificació política, infraestructures tecnològiques, innovació d’aula, loops de feedback i co-creació human–AI. El model estableix una arquitectura replicable per a la digitalització universitària amb garanties d’ètica, seguretat de dades i millora contínua (p. 4-5)
Application and Prospect of Artificial Intelligence in Personalized Learning (Zhao, 2024)
Aquest article analitza com la IA està redefinint el paradigma de l’aprenentatge personalitzat en un moment en què el model educatiu tradicional ja no pot respondre a la diversitat cognitiva, emocional i competencial dels estudiants. El text presenta quatre eixos: aplicacions principals basades en big data, tutors intel·ligents, recomanació personalitzada i plataformes adaptatives; beneficis demostrats en eficiència, autonomia i equitat; reptes crítics en privacitat, ètica, redefinició del rol docent i costos tecnològics; i perspectives de futur centrades en diagnosi fina, entorns immersius i aprenentatge realment “un a un”. És un article clarament orientat a evidenciar tant el potencial transformador de la IA com les seves fragilitats sistèmiques, situant el debat en el desenvolupament d’ecosistemes educatius capaços de combinar precisió algorísmica amb criteri pedagògic.
Cinc claus
La IA com a motor central de l’aprenentatge personalitzat
La IA permet capturar patrons d’aprenentatge mitjançant big data, optimitzar itineraris i adaptar el contingut en temps real. El text descriu com l’anàlisi de pausas, replays, errors i ritmes permet diagnosticar estats d’aprenentatge i ajustar dificultat i velocitat (p. 1-2) .
Sistemes intel·ligents de recomanació i tutorització contínua
A partir d’historial, interessos i objectius, la IA recomana recursos, identifica debilitats i anticipa desviacions. Els tutors intel·ligents ofereixen guiatge immediat, flexible i adaptat a estils visuals, auditius o pràctics, superant les limitacions del temps docent (p. 2) .
Plataformes adaptatives: personalització granular i monitoratge dinàmic
La IA ajusta rutes, amplia recursos, reforça continguts crítics i respon a bloquejos puntuals. El seguiment en temps real inclou encerts, errors, temps invertit i preguntes, ajustant-contingut per garantir progressió òptima (p. 2) .
Beneficis estructurals: eficiència, autonomia i equitat educativa
La IA permet educació “24/7”, trenca barreres geogràfiques i dona suport personalitzat ampliable a milions d’estudiants, millorant l’autonomia i reduint desigualtats en contextos rurals o de baixa disponibilitat de recursos (p. 3) .
Riscos i reptes: privacitat, biaixos, rol docent i costos tecnològics
El text alerta sobre vulnerabilitats de dades, biaixos d’entrenament, redefinició profunda del rol docent (de transmissor a guia i mentor), dificultats tècniques, dependència de proveïdors i costos elevats per a centres amb pocs recursos. També destaca la necessitat de cooperació escola–sector tecnològic i actualització constant (p. 3-4) .
Explainable Artificial Intelligence (XAI) for education: A critical review of methods, challenges, and future directions (2024)
https://www.researchgate.net/publication/390094269_Explainable_AI_Methods_Challenges_and_Future_Directions
Aquest article és una revisió crítica sobre l’aplicació de la Explainable Artificial Intelligence (XAI) en entorns educatius. Parteix d’un problema central: els sistemes d’IA educativa són cada vegada més potents però també més opaques, i aquesta “caixa negra” dificulta confiança, adopció, governança i, sobretot, legitimitat pedagògica.
L’article analitza els principals mètodes d’explicació aplicables a l’educació (models interpretable, explicació post-hoc, visualització de dades i anàlisi d’atenció), així com els riscos: biaixos, decisions automàtiques no auditables, manca de transparència per a docents i estudiants, vulnerabilitat ètica i pèrdua de control sobre el procés d’aprenentatge. També mapeja línies de futur com les interfícies explicatives per a estudiants, l’acreditació algorísmica, la co-creació human–AI i la integració de XAI en el disseny instruccional. L’article s’ha convertit en una peça clau per entendre que la IA educativa no pot prosperar sense explicabilitat i que l’educació necessita sistemes audibles, traçables i regulables.
Cinc claus
La manca d’explicabilitat és la principal barrera per a la IA educativa
Els sistemes d’IA aplicats a l’educació operen com a “caixes negres”, dificultant que docents i estudiants entenguen per què una recomanació, diagnòstic o classificació es produeix. Aquesta opacitat afecta confiança, adopció i justificació pedagògica (p. 1-2) .
XAI aporta eines concretes per interpretar models complexos
El text revisa mètodes com LIME, SHAP, mapes d’atenció, visualitzacions d’importància de característiques i models inherentment interpretables, mostrant com XAI pot fer comprensibles recomanacions, prediccions d’aprenentatge o retroalimentació adaptativa (p. 3-5) .
Riscos persistents: biaixos, equitat i governança algorísmica
L’article destaca que, fins i tot amb XAI, l’educació està exposada a biaixos de dades, inferències injustes i falta d’auditoria, especialment en sistemes d’avaluació automatitzada, detecció de risc o recomanació personalitzada. La transparència és necessària però no suficient (p. 6) .
La XAI pot reforçar la presa de decisions humanes en entorns híbrids
Quan les explicacions es dissenyen per a docents, poden millorar la retroalimentació, la tutoria adaptativa i l’ajust didàctic. Quan es dissenyen per a estudiants, poden reforçar metacognició, autonomia i alfabetització algorítmica (p. 7-8) .
Futurs emergents: XAI integrada al disseny pedagògic i marcs reguladors
L’article anticipa una evolució cap a sistemes educatius explicables per defecte: interfícies pedagògiques transparentes, explicacions generatives adaptades a l’usuari, certificació ètica i governança de dades. XAI esdevindrà condició necessària en polítiques educatives i en ecosistemes AI+ED (p. 9-10)
The Use of Generative Artificial Intelligence for Upper Secondary Mathematics Education Through the Lens of Technology Acceptance (Finlàndia, 2025)
Claus
Estudia l’acceptació per part d’alumnat de secundària (alta escola) a Finlàndia de generative AI (GenAI) en l’assignatura de matemàtiques.
Mostra que la “perceived usefulness” (utilitat percebuda) de la IA és la variable que més influeix en la intenció d’usar-la; la “perceived enjoyment” també té un paper significatiu.
La introducció de “compatibilitat” millora el poder explicatiu del model, cosa que assenyala la importància de dissenyar eines d’IA ajustades al context pedagògic i curricular de l’estudiant.
Contribueix a entendre de forma empírica com la percepció dels estudiants afecta la integració de la IA en matemàtiques: no és suficient que l’eina existeixi, ha de sent compatible amb les pràctiques d’aprenentatge.
Enllaç: arXiv
Claus
Analitza com alumnat infantil (5è–6è de primària) concep la IA: identifica categories de malentesos (IA com a procés cognitiu humà; IA antropomòrfica; IA com màquina amb coneixement preinstal·lat) en una mostra de 195 xiquets.
Revela que la majoria dels estudiants valoren el seu coneixement sobre IA com a “baix”, fet que indica que molts malentesos són superficials, no creen una representació científica robusta de la IA.
Assenyala que les característiques lingüístiques i contextuals (com explicar IA en llenguatge popular) influeixen en els errors de concepció, de manera que la “alfabetització en IA” ha de ser adaptada culturalment.
Les conclusions apunten a la necessitat urgent d’introduir currículums d’educació sobre IA des de edats primerenques, perquè aquests malentesos no malformen la percepció que l’alumnat tindrà sobre la IA com eina educativa o social.
Aquest estudi aporta evidència empírica sobre la brevetat del coneixement funcional de la IA en etapes primàries, cosa que qüestiona la idea que els estudiants puguen integrar eines d’IA amb pensament crític sense formació prèvia.
Claus
Examina críticament com els discursos d’eficiència i rendiment al voltant de la IA poden encobrir desigualtats estructurals en l’educació obligatòria sueca.
Mitjançant anàlisi de documents de polítiques educatives i informes d’empreses edtech, mostra que la definició d’“equitat” aplicada a la IA sovint és formal i desconectada de factors socioeconòmics reals.
S’identifiquen “grups rellevants” diferents (per exemple: estudiants amb context migratori, en zones rurals, amb necessitat de suport) que perceben de manera diversa els riscos i beneficis de la IA.
El treball qüestiona la idea de justícia com a simple igualtat d’oportunitats tècniques i alerta que la IA pot reproduir o accentuar bretxes prèvies si els sistemes no incorporen polítiques d’inclusió i desigualtats estructurals.
Conclou que “fairness” no és una propietat tècnica de la IA, sinó una construcció social i política: l’equitat requereix transformacions en l’organització educativa, no només adaptació tecnològica.
Aquest estudi serveix per a analitzar els riscos d’una implantació acrítica de la IA i reforça la idea que la personalització només pot ser una oportunitat si va acompanyada de polítiques d’equitat i consciència social.
Aquesta recomanació política, amb la participació d'universitats de Dinamarca (Aarhus University) i Finlàndia (University of Applied Sciences), examina la integració pràctica de l'ètica de la IA en l'educació superior a través de microcredencials.
Cinc Claus Principals:
Habilitats d'alta demanda per al mercat laboral: La microcredencial aborda la necessitat urgent de competències com l'equitat algorítmica, la rendició de comptes i la mitigació de biaixos.
Integració flexible en sistemes nòrdics: La microcredencial està dissenyada per a ser reconeguda i apilable, alineant-se amb el Nivell 4 del Marc Europeu de Qualificacions (MEC). Aquesta apilabilitat és crucial per a l'aprenentatge permanent.
Alineació amb l'estratègia digital de Finlàndia: La proposta s'alinea amb la iniciativa nacional estratègica de Finlàndia en matèria d'aprenentatge digital i educació modular (Projecte Digivisio 2030).
Reconeixement en l'Educació Secundària Superior (Dinamarca): L'exemple de Dinamarca mostra com la microcredencial pot enfortir l'alfabetització digital i l'educació ètica en els programes de secundària superior (HTX), alineant-se amb l'estratègia nacional danesa.
Sistemes d'admissió i reconeixement formal: Es recomana que les institucions superiors (incloent-hi institucions nòrdiques com Aarhus University) incloguen aquestes microcredencials en els seus criteris d'admissió com a mèrits addicionals per fomentar la legitimitat i la inclusió.
Enllaç/DOI: L'estudi es basa en el Projecte Erasmus+ CHARLIE.
La regulació d l’ús legítim, transparent i pedagògicament fonamentat de forma propositiva ( i no estrictament punitiva) de la IA generativa en l’àmbit acadèmic és imprescindible tant per al professorat com per a l’alumnat, independentment de les percepcions personals, les tensions ètiques o els models comercials que envolten esta tecnologia.
La naturalesa estructural de la IA, la seua capacitat d’expansió i el seu impacte sobre l’aprenentatge fan inviable qualsevol estratègia basada en la prohibició, l’ocultació o la improvisació. El sistema educatiu haurà de trobar maneres rigoroses, ètiques i sostenibles d’integrar-la.
La idea de fons: si la IA pot democratitzar l’accés al coneixement i reforçar l’aprenentatge, aleshores la seua integració legítima és un imperatiu pedagògic, no una opció ideològica.
Analitzar de manera crítica i comparada l’ús legítim, transparent i pedagògicament fonamentat de la IA generativa en l’educació, identificant-ne els límits, els riscos i les potencialitats en un ecosistema digital accelerat i desigual.
Examinar diferents tradicions de coneixement (anglosaxona, hispanollatinoamericana, escandinava i xinesa) per a superar el monocultiu epistemològic nord-americà i construir una mirada global, plural i contextualitzada sobre la integració educativa de la IA.
Verificar en primera persona la fiabilitat, coherència i limitacions de diversos sistemes d’IA utilitzats com a instruments de recerca, convertint el TFM en un metatreball que avalua no sols els continguts sinó també les metodologies emergents de consulta i producció de coneixement digital.
Proposar un marc pedagògic que conceba la IA com una eina d’ampliació cognitiva, no de substitució, integrant la reflexió ètica, la sostenibilitat digital i el control humà com a principis bàsics per a la formació en pensament crític i ciutadania digital.
Dissenyar i publicar una guia web per a l’alumnat que establisca criteris d’ús legítim, transparent, crític, conscient, responsable i sostenible de la IA en l’àmbit acadèmic, incloent bones pràctiques, límits ètics, exemples i models de declaració d’ús.
Elaborar una guia de drets de l’estudiant davant l’ús d’IA en processos d’aprenentatge i avaluació, amb especial atenció a transparència algorítmica, traçabilitat, revisió humana, protecció de dades i vies de recurs en casos de decisions automatitzades injustes.
Construir un marc conceptual sobre “ús legítim” de la IA generativa, integrant principis ètics, normatius, pedagògics i de governança digital, harmonitzant la literatura internacional amb la realitat del sistema educatiu valencià.
Analitzar les percepcions, usos, resistències i dilemes del professorat i l’alumnat mitjançant enquestes, focus grup i observació no participant, per comprendre com s’està utilitzant realment la IA i quines condicions faciliten o dificulten un ús responsable.
Contrastar la pràctica docent i estudiantil amb protocols institucionals vigents per a identificar desajustos, absències normatives i oportunitats de canvi pedagògic.
Avaluar críticament tres ecosistemes tecnològics de recerca (ChatGPT, DeepSeek i NotebookLM) per determinar-ne la validesa epistemològica i els biaixos, i per establir una metodologia d’investigació coherent amb el moment de transició cap a la IA.
Proposar criteris d’avaluació i disseny de tasques “resistents a IA” que reforcen el pensament crític, l’autoria, l’assimilació intel·lectual i la transparència en l’ús d’eines digitals.
Reflexionar sobre els riscos de privatització de l’aprenentatge i concentració tecnològica en grans oligopolis d’IA, i valorar-ne l’impacte sobre l’equitat, la sostenibilitat i la sobirania educativa.
La investigació adopta un enfocament mixt amb una base marcadament qualitativa, adequat per analitzar un fenomen emergent i encara poc estructurat com és l’ús legítim de la IA generativa en l’educació.
L’estudi combina descripció, exploració i interpretació crítica, perquè la naturales del problema exigeix comprendre no sols què passa, sinó com ho viuen el professorat i l’alumnat en un context on la tecnologia avança més ràpid que les normes i els criteris compartits. El disseny respon, per tant, a la necessitat d’estudiar el fenomen amb eines flexibles i complementàries que permeten captar tant els patrons generals com les experiències concretes.
En primer lloc, s’utilitzarà una enquesta per a identificar percepcions, usos i resistències de manera global. En contextos de disrupció tecnològica, les actituds individuals i col·lectives són determinants, perquè condicionen la velocitat, la qualitat i la coherència de la integració educativa. Per això, el qüestionari no sols mesura nivells d’ús, sinó també expectatives, pors, confiança i criteris personals, elements que sovint expliquen més que no els factors estrictament tècnics.
En segon lloc, es realitzaran focus grups diferenciats amb professorat i estudiantat que ja utilitzen IA de manera habitual, per a aprofundir en dilemes, justificacions i experiències que les dades quantitatives no poden captar.
Finalment, s’analitzaran documents institucionals existents —protocols, orientacions i normatives— per entendre fins a quin punt la regulació formal acompanya o contradiu les pràctiques reals observades.
El procés d’anàlisi combinarà totes aquestes fonts per a construir una comprensió coherent del fenomen. Les dades quantitatives serviran per situar tendències generals, mentre que les dades qualitatives permetran interpretar matisos i tensions que apareixen en el discurs i en la pràctica. L’objectiu és integrar els resultats de manera natural, buscant coherències i discrepàncies que ajuden a explicar per què l’ús de la IA és tan desigual i quines condicions poden facilitar un marc legítim, transparent i compartit dins de la comunitat educativa.
Les unitats d’anàlisi principals d’aquesta investigació són el professorat i l’alumnat que utilitzen la intel·ligència artificial generativa de manera avançada. Són els perfils més adequats per a comprendre el fenomen, ja que el seu ús habitual els permet identificar tant les potencialitats pedagògiques com les limitacions ètiques i operatives que apareixen en la pràctica real.
L’estudi se centrarà en les seues experiències, percepcions, criteris d’ús legítim i capacitat de projecció, combinant de manera equilibrada l’anàlisi dels usos reals, les interpretacions personals i la visió de futur que aquests perfils aporten.
A banda del context immediat, es manté la possibilitat d’incloure participants d’altres centres o entorns educatius quan la seua experiència o grau d’expertesa puguen ampliar la mirada del fenomen. Aquesta obertura permet captar la diversitat de pràctiques que s’estan consolidant en un àmbit tan canviant i accelerat com el de la IA generativa aplicada a l’educació.
Com a unitat d’anàlisi secundària, s’examinaran documents institucionals —protocols, guies i recomanacions— amb l’objectiu de comparar el marc formal amb les pràctiques emergents detectades en professorat i alumnat.
Donada la rapidesa amb què evoluciona la tecnologia i el ritme d’adopció d’eines com NotebookLM o altres models avançats, estos documents no es consideren determinants, però sí útils per evidenciar el desfasament entre la normativa actual i la realitat educativa en transformació.
La investigació utilitzarà un conjunt de tècniques complementàries que permeten obtenir una visió completa, rigorosa i contrastada sobre les percepcions, pràctiques i necessitats vinculades a l’ús legítim de la IA generativa en l’àmbit educatiu.
Els mètodes seleccionats combinen aproximacions quantitatives i qualitatives per captar tant la dimensió estructural del fenomen com les experiències individuals del professorat i de l’alumnat.
S’analitzaran protocols, guies institucionals, recomanacions universitàries, informes internacionals, estudis cientìfics i marcs normatius vigents sobre l’ús de la IA en educació. Este mètode permet identificar els criteris de bones pràctiques, els consensos emergents i els buits reguladors. La revisió inclourà documents de caràcter pedagògic, ètic i institucional, i servirà per establir una base teòrica sòlida que contextualitze el problema i oriente les preguntes de recerca.
S’administrarà un qüestionari estructurat a professorat i alumnat. El formulari recollirà dades sobre actituds, percepcions, barreres, coneixements previs, usos reals i nivells de resistència o acceptació de la IA generativa.
Les respostes es codificaran posteriorment per a analitzar tendències, diferències entre grups i correlacions entre variables (edat, experiència docent, branca d’estudis, nivell d’exposició tecnològica, etc.). Este mètode aporta una visió panoràmica quantificable del fenomen.
Es realitzaran dos focus grup diferenciats: un amb professorat i un altre amb estudiants que utilitzen IA de manera habitual i competent. L’objectiu és aprofundir en experiències concretes, dilemes ètics, pràctiques emergents, criteris d’ús legítim i visions sobre el futur de la IA en educació. Les sessions permetran captar matisos, divergències i punts de consens que difícilment apareixen en les enquestes. L’entrevista grupal facilita també detectar patrons de comportament i justificacions compartides.
L’anàlisi d’artefactes consisteix en l’examen sistemàtic de les declaracions d’ús d’intel·ligència artificial elaborades pels participants en una activitat acadèmica. A partir d’aquests textos breus —que descriuen quines eines s’han utilitzat, amb quina finalitat i amb quin grau de verificació— es realitza una codificació qualitativa orientada a identificar el nivell de transparència, el grau de delegació cognitiva, la presència de reflexió crítica, el coneixement sobre drets i integritat acadèmica i l’adequació de les pràctiques declarades al model d’ús legítim proposat en aquest estudi.
L’objectiu és comprendre com els usuaris conceptualitzen i practiquen l’ús d’IA en un context real d’aprenentatge, detectant patrons, incoherències i bones pràctiques. Aquest procediment aporta evidència empírica sobre la manera en què els estudiants i docents interpreten la responsabilitat, la traçabilitat i els límits de l’ús de la IA generativa, i permet vincular directament la investigació amb la transferència pedagògica.
L’anàlisi pre i post s’articula com un disseny quasi-experimental senzill orientat a mesurar l’impacte immediat d’un microcurs sobre ús legítim de la IA en educació.
En la fase pre, els participants responen un conjunt reduït d’ítems de coneixement objectiu —centrats en conceptes bàsics com al·lucinacions, riscos de privacitat, diferències entre assistència i plagi o funcionament dels models de llenguatge— i un conjunt d’afirmacions Likert que valoren la seua confiança, percepció de risc, claredat normativa i capacitat d’ús transparent.
Després del curs, s’administra la mateixa bateria, afegint-hi preguntes obertes sobre canvis percebuts i aplicacions futures. La comparació entre les puntuacions pre i post permet detectar guanys cognitius, modificacions en les actituds i possible reducció de pors o confusions. Aquest mòdul proporciona una mesura empírica de l’eficàcia formativa del curs i complementa les dades qualitatives procedents de l’enquesta i el focus grup.
En el moment actual, la IA educativa ja no és una hipòtesi, sinó un element estructural del debat pedagògic i de la planificació institucional. No estem discutint si existirà o no, sinó en quines condicions, amb quins límits i sota quin tipus de control s’integrarà en el sistema educatiu. Aquesta inevitable presència, però, no implica en absolut normalització. La IA continua sent percebuda com alguna cosa “externa” al nucli de la pràctica docent: un afegit tecnològic potent, però encara sospitós, que irromp en un espai regit històricament per la interacció humana, el temps lent i la mediació professional del professorat.
Aquest desajust entre inevitabilitat i no-normalització genera una tensió de fons: la IA apareix alhora com a oportunitat i com a amenaça. Les institucions i els discursos polítics tendeixen a presentar-la com una peça clau de modernització i competitivitat, mentre que el professorat i la ciutadania articulen dubtes molt concrets sobre el seu impacte cognitiu (delegació del pensament, “peresa mental”), ètic (plagi, deshonestedat, biaixos) i social (bretxes i desigualtats). En conseqüència, la IA educativa s’instal·la en un estat de provisionalitat permanent: es prova, s’experimenta, es pilota, però no arriba a integrar-se com un component pedagògic madur i legítim.
En aquest escenari, es poden identificar tres tensions estructurals que vertebren el debat:
Innovació vs prudència. D’una banda, els discursos institucionals pressionen per innovar, incorporar IA i no “quedar-se arrere”. De l’altra, apareix la consciència que introduir una tecnologia capaç d’automatitzar processos cognitius sense un marc clar pot erosionar el sentit mateix de l’aprenentatge. El risc no és només “usar massa” o “massa prompte” la IA, sinó fer-ho sense preguntes de fons sobre què ha de continuar sent intrínsecament humà en l’educació.
Formació docent inexistent o insuficient. Es reclama al professorat que gestione, filtre, integre i regule la IA, però no existeix una formació sistemàtica, obligatòria i rigorosa que permeta assumir aquest paper amb solvència. Es demana al docent que siga “mediador ètic” i “dissenyador d’experiències amb IA”, mentre la major part del professorat continua aprenent sobre la marxa, amb recursos dispersos, de manera autodidacta i sense temps institucional reconegut.
Risc d’ampliar desigualtats. La IA es ven sovint com un factor d’equitat (personalització massiva, suport 24/7, compensació de mancances de recursos), però en la pràctica, l’accés desigual a dispositius, connectivitat i versions premium de les eines pot consolidar jerarquies internes entre estudiants i entre centres. Sense mesures específiques de redistribució i compensació, la IA corre el perill de convertir-se en un multiplicador de desigualtats, no en un corrector.
Aquestes tres tensions apunten a una conclusió incòmoda: la IA no és un “complement” al sistema existent, sinó una força que el desestabilitza des de dins. Pretendre integrar-la sense revisar estructures, rols i criteris de justícia educativa significa, en la pràctica, deixar que les lògiques comercials i tecnològiques marquen el ritme.
Si la IA educativa es tracta només com un recurs tecnològic (una eina més, com en el seu moment foren les PDI o les plataformes virtuals), el debat queda inevitablement reduït a qüestions instrumentals: quina eina és “millor”, com s’integra en la classe, quines funcionalitats té. Aquesta lectura és insuficient i, en el fons, perillosa. El nucli del problema no és què pot fer la IA, sinó qui decideix com s’utilitza, amb quins límits, sota quina supervisió i amb quin règim de responsabilitats.
Llegir la IA com un problema de governança implica desplaçar el focus cap a les regles del joc: normatives, protocols, polítiques d’ús, mecanismes de transparència, traçabilitat de prompts, exigències de citació, informes d’ús, garanties de protecció de dades i criteris d’equitat. Implica també assumir que la sobirania pedagògica no pot ser externalitzada als proveïdors tecnològics. El sistema educatiu ha de definir què considera un ús legítim, quin paper reserva al judici humà, com protegeix l’alumnat i com garanteix que la IA amplifica el treball docent en lloc de substituir-lo o neutralitzar-lo.
Sense aquest canvi de marc, qualsevol debat sobre IA educativa corre el risc de ser un debat tècnic més, totalment desconnectat de la pregunta sobre qui governa el procés educatiu i en benefici de qui.
Percepcions socials i límits d’acceptació
1.1.1. IA percebuda com a inevitable però envoltada de vertigen cognitiu, ètic i social
Les dades recollides mostren una paradoxa clara: la ciutadania dóna per fet que la IA formarà part del sistema educatiu, però aquesta acceptació està impregnada d’una desconfiança difusa però consistent. Parlem d’un vertigen que es manifesta en diverses capes: por a la “peresa mental” en l’alumnat, preocupació per la pèrdua d’autoria i autenticitat en els treballs acadèmics, alarma davant el potencial de vigilància i acumulació massiva de dades, i recel davant d’algoritmes opacs que prenen decisions sense explicació.
Aquest vertigen no és només emocional, és racional. El públic detecta que la IA no és una simple calculadora sofisticada, sinó un sistema capaç de generar text, imatge i decisió en àmbits que fins ara es consideraven exclusivament humans. Això activa preguntes de fons: què significa “aprendre” quan una eina pot resoldre tasques complexes en segons?, quin sentit té l’esforç en un context d’automatització generalitzada?, com es garanteix que allò que s’avaluà reflecteix realment el procés cognitiu de l’estudiant?
1.1.2. Document com a termòmetre del que la ciutadania accepta, rebutja i exigeix abans de polítiques serioses
En aquest context, el document que recull aquestes percepcions funciona com un veritable termòmetre social. No és només una descripció d’opinions puntuals, sinó un mapa de condicions d’acceptació. La ciutadania no rebutja en bloc la IA, però tampoc no l’accepta en qualsevol forma. En termes pràctics, el document mostra tres coses:
Què es pot acceptar: presència de la IA en el sistema, sempre que complisca una funció clara i no substituïsca el treball cognitiu central.
Què es rebutja: opacitat, delegació completa, ús prematur en edats molt primerenques i desplaçament massiu de la interacció humana.
Què s’exigeix: regulació explícita, garanties de protecció de dades, límits d’ús, supervisió humana forta i un marc d’integritat acadèmica adaptat a la nova realitat.
1.2.1. Majoria a favor de presència educativa (75,5 %)
La dada del 75,5 % favorable a la presència de la IA en educació no es pot llegir com un “xec en blanc”. Més bé indica una acceptació condicional: la ciutadania assumeix que l’educació no pot quedar al marge d’un canvi tecnològic d’esta magnitud i que, per tant, és preferible integrar la IA en lloc de ignorar-la. Però aquesta acceptació implica, implícitament, una demanda de control. La IA ha d’estar, però sota regles.
1.2.2. Condicionament fort per edat: només a partir de 12–16 anys (~70 %)
El fet que aproximadament un 70 % defense introduir la IA només a partir dels 12–16 anys és especialment significatiu. Es traça una frontera d’edat que expressa una intuïció pedagògica i ètica: abans de cert nivell de maduresa, el risc de dependència, fascinació acrítica i delegació cognitiva és massa alt. Aquesta frontera qüestiona qualsevol relat que presente la IA com un recurs “universal” i “innocu” per a totes les etapes, i obliga a pensar itineraris diferenciats, amb una entrada gradual i contextualitzada.
1.3.1. Pes de les funcions administratives: automatització, reducció de burocràcia, polítiques basades en dades
Quan es pregunta pels beneficis de la IA, destaquen sobretot funcions administratives: automatització de tasques repetitives, reducció de càrrega burocràtica i possibilitat de dissenyar polítiques educatives basades en dades massives. Aquest focus revela una cosa important: la primera capa de legitimació de la IA no passa per l’aula, sinó pels despatxos. Allibera temps, agilita procediments, permet monitorar el sistema. És una IA que “neteja” el back office del sistema educatiu.
Aquesta lectura no és trivial. Si el principal atractiu institucional de la IA és descarregar processos administratius, existeix el risc que la inversió, el disseny i la governança es concentren en aquesta dimensió, mentre la part pedagògica queda en segon pla, improvisada o subordinada a criteris d’eficiència.
La personalització de l’aprenentatge i l’atenció a l’alumnat amb necessitats educatives especials apareixen, però en una posició secundària. Teòricament, la IA és presentada com una eina potent per a ajustar continguts, ritmes i suports. En la pràctica, però, la percepció social no situa aquesta funció com la principal. Aquesta desconnexió entre el discurs tecnològic (hiperpersonalització) i la percepció social (gestió i burocràcia) mostra fins a quin punt el relat de la IA com a motor d’inclusió encara no ha sigut ni demostrat ni cregut.
1.4.1. Perill d’ampliar desigualtats si l’ús no és regulat ni redistribuït
Si la IA es desplega en un entorn on l’accés a dispositius, connectivitat i versions avançades de les eines depén dels recursos individuals o del centre, el resultat és previsible: els qui ja parten amb avantatge acumulen encara més capital cognitiu i tecnològic. Les promeses de personalització només seran reals per a qui puga pagar-les o per a qui estudie en institucions amb capacitat d’inversió. Sense polítiques de redistribució i mecanismes de compensació, la IA es converteix en un accelerador de desigualtats, encara que el discurs oficial parle d’equitat.
1.4.2. Necessitat d’entendre la justícia no com a mera igualtat d’oportunitats tècniques
En aquest context, parlar de justícia educativa com a “igualtat d’oportunitats tècniques” és radicalment insuficient. No n’hi ha prou amb “posar la mateixa eina a disposició de tothom” si les condicions materials, culturals i educatives per aprofitar-la són profundament desiguals. La IA obliga a repensar la justícia en termes de capacitat real d’ús crític, de suport a l’alfabetització algorítmica, d’acompanyament docent i d’estructures que no penalitzen els qui parteixen de posicions més vulnerables.
Des d’aquesta perspectiva, la IA educativa no és només un repte tecnològic, sinó una prova de coherència: si el sistema és capaç o no de fer tecnologia al servei de l’equitat i del judici humà, i no a la inversa.
Nou paradigma: Human–AI Teaching i personalització algorítmica
2.1.1. Trànsit del “docent amb màquina de suport” al Human–AI Teaching
El gir cap al paradigma Human–AI Teaching representa un salt qualitatiu en la manera com entenem la relació entre docència humana i tecnologia. Fins ara, la IA ocupava un rol tradicional: una eina complementària, una extensió funcional del docent destinada a facilitar tasques puntuals com generar exercicis, corregir textos o proporcionar recursos addicionals. Aquest model mantenia intacta la jerarquia: el docent dissenyava, decidia i executava; la màquina assistia.
El paradigma emergent trenca aquesta lògica. Parlem d’una cooperació funcional entre docent i IA on la tecnologia deixa de ser una mera eina i comença a actuar com un agent cognitiu que participa activament en el procés educatiu. La IA genera continguts, suggereix estructures, anticipa dificultats, modela seqüències d’aprenentatge i ajuda a interpretar dades que un docent, treballant sol, no podria analitzar en temps real. Aquesta nova “doble autoria” crea un escenari radicalment diferent: el docent no sols gestiona una eina, sinó que governa un sistema que també pensa, també recomana i també diagnostica.
2.1.2. Repartiment funcional: generació de contingut, assistència cognitiva, anàlisi d’aprenentatge, personalització
Aquesta nova ecologia docent-IA reparteix funcions que abans estaven concentrades exclusivament en el professorat:
Generació de continguts: la IA elabora explicacions, exemples, exercicis i activitats en temps real, adaptades al nivell i al ritme de cada estudiant.
Assistència cognitiva: els sistemes d’IA poden oferir pistes, aclariments i contraexemples immediats, actuant com una mena de tutoria permanent.
Anàlisi d’aprenentatge: la IA processa grans volums de dades sobre comportaments, errors i patrons d’ús, generant diagnòstics que ajuden a identificar necessitats individuals i col·lectives.
Personalització adaptativa: els models ajusten el tipus, la complexitat i l’ordre de les activitats en funció del progrés de cada estudiant.
Aquest repartiment funcional no elimina el docent, però l’obliga a redefinir el seu paper. Deixa de ser un transmissor per convertir-se en un dissenyador, un curador i un supervisor crític. La IA aporta potència de càlcul; el docent aporta criteri i sentit.
2.2.1. Big data educatiu: captures de patrons, errors, ritmes, pauses, replays
La personalització algorítmica es fonamenta en un volum massiu de dades generades per les interaccions de l’estudiant amb les plataformes. El sistema captura el que un docent no podria registrar: ritme de lectura, pauses, repeticions de vídeos, tipus d’errors, temps invertit en cada pas, seqüències de clics i fins i tot patrons de desistiment. Aquest big data educatiu converteix l’aprenentatge en un procés monitoritzat continuament. Això permet diagnòstics granulars i seqüències que s’adapten de manera dinàmica.
Però també implica una nova dependència: sense dades, no hi ha personalització. El cost cognitiu i ètic d’aquesta captura massiva és evident, però el model la considera imprescindible.
2.2.2. Tutors intel·ligents i sistemes de recomanació contínua
Els tutors intel·ligents no són assistents improvisats; són sistemes entrenats per oferir guiatge immediat que simula, en part, l’acompanyament humà. Identifiquen debilitats en temps real, recomanen recursos segons l’historial i anticipen errors previsibles. En molts casos, actuen com un “co-docent” permanent que manté el ritme de la classe fins i tot quan el professor no pot atendre individualment.
Els sistemes de recomanació, per la seua banda, funcionen com els algoritmes que governen plataformes digitals, però aplicats a continguts pedagògics. El seu objectiu és mantenir l’estudiant en un flux òptim d’aprenentatge i evitar estancaments.
2.3.1. Eficiència i educació “24/7”
El primer benefici que s’atribueix a aquest paradigma és l’eficiència. La IA permet atendre simultàniament a grans grups d’estudiants, oferir respostes immediates i mantenir un flux constant d’aprenentatge. La promesa és clara: l’educació deixa de dependre del temps físic a l’aula. L’estudiant pot continuar aprenent a qualsevol hora, amb suport continu i amb retroalimentació immediata.
2.3.2. Autonomia i suport massiu personalitzat
La combinació de supervisió algorítmica i tutors intel·ligents permet una forma d’autonomia guiada: l’estudiant avança al seu ritme, però sempre amb suport. El sistema evita que quede encallat i li ofereix alternatives personalitzades. Aquesta capacitat d’escalar l’atenció individualitzada és vista com un dels majors atractius del model: poder oferir “personalització en massa” a milers d’estudiants.
2.3.3. Potencial d’equitat en contextos rurals o amb pocs recursos
Un dels arguments més repetits és que la IA pot ajudar a compensar desigualtats geogràfiques o estructurals. En centres rurals, amb professorat insuficient, o en contextos on no hi ha especialistes disponibles, els tutors intel·ligents poden proporcionar un suport que d’altra manera seria impossible. No és una solució màgica, però sí una possibilitat real de reduir certes bretxes sempre que es garantisca igualtat d’accés a la tecnologia.
2.4.1. Ús superficial i pilotatge permanent
La majoria d’implementacions actuals de IA educativa no passen de la fase de pilotatge. S’introdueixen aïlladament, sense un marc institucional clar, i amb un ús superficial: s’empren per generar exercicis, per revisar textos o per crear activitats, però no s’integren de manera estructural en la seqüència didàctica. Aquesta superficialitat impedeix valorar realment el potencial del model i manté les institucions en un estat de “prova infinita”.
2.4.2. Rols docent–IA indefinits i feedback intel·ligent insuficient
El repartiment de funcions entre docent i IA continua sent ambigu. Fins on arriba la responsabilitat del docent quan una IA recomana un itinerari erroni? Fins on pot delegar el professor en un sistema que no és transparent? Aquests rols indefinits generen inseguretat professional i dificulten la integració plena. A més, el feedback que ofereixen els sistemes no sempre és prou sofisticat: detecten errors, però no sempre interpreten el raonament que hi ha darrere.
2.4.3. Opacitat i manca d’explicabilitat com a barrera central
La dependència de models “caixa negra” limita l’acceptació. Docents i estudiants no saben per què el sistema recomana una ruta d’aprenentatge i no una altra. Aquesta opacitat és incompatible amb la legitimitat pedagògica. Sense explicabilitat, la IA educativa no pot consolidar-se, perquè ningú pot justificar-la davant d’un estudiant, una família o una inspecció. És la barrera estructural més greu del model.
2.4.4. Dependència de proveïdors, costos i vulnerabilitats de dades
El model Human–AI Teaching depén d’una infraestructura tecnològica privada, costosa i vulnerable. Les plataformes recopilen dades massives, la qual cosa obri interrogants sobre protecció, propietat i usos comercials. A més, la dependència de proveïdors pot produir asimetries en el sistema educatiu: centres rics accedeixen a serveis premium i centres pobres queden lligats a versions limitades. Aquesta dependència estructural amenaça amb convertir l’educació en un camp subsidiari de les empreses tecnològiques.
Governança, regulació i responsabilitats
3.1.1. Regulació com a desafiament central (present en la majoria d’estudis)
La regulació és el tema més recurrent i, alhora, el més incòmode. Tots els estudis convergeixen en la mateixa conclusió: sense un marc normatiu sòlid, la IA educativa es converteix en un ecosistema ingovernable on cada centre, cada docent i fins i tot cada estudiant inventa les seues pròpies regles. La IA no pot operar en el buit legal perquè la seua potència tecnològica supera amb escreix la capacitat d’improvisació de les institucions.
La falta de regulació no només genera inseguretat jurídica, sinó que projecta una sensació de provisionalitat que erosiona la confiança. Quan el sistema educatiu no marca límits clars, la governança de facto acaba en mans de les plataformes tecnològiques, que actuen segons criteris comercials i no pedagògics.
3.1.2. Responsabilitat institucional en polítiques, supervisió i formació del personal
Les institucions educatives no poden delegar la regulació en el professorat, ni molt menys en l’alumnat. El paper institucional és triple:
Polítiques d’ús clares, públiques, actualitzades i coherents amb la legislació vigent.
Supervisió activa del desplegament tecnològic, garantint que la IA utilitzada siga fiable, segura i pedagògica, i no un experiment permanent.
Formació obligatòria del personal docent, que no pot continuar depenent de la bona voluntat individual o del temps lliure dels professors.
Sense aquest compromís institucional, tot el pes de la integració recau injustament en el professorat, que es veu abocat a navegar un fenomen complex amb eines insuficients.
3.1.3. Reconfiguració del paper docent com a mediador ètic i dissenyador d’experiències
La IA transforma el rol del docent d’una manera profunda. Ja no n’hi ha prou amb dominar continguts i estratègies metodològiques; ara cal exercir un paper de mediador ètic, capaç d’establir límits, avaluar riscos, garantir la transparència i reclamar explicabilitat.
A més, el docent es converteix en dissenyador d’experiències cognitives, articulant activitats que aprofiten la IA sense sacrificar el pensament crític. Això implica reorientar la docència cap a tasques de governança, avaluació i supervisió que abans no existien. És una ampliació clara de responsabilitats que exigeix, de nou, suport institucional.
3.2.1. La IA com a amplificador, no substitut, del judici i de l’experiència docent
El principi central que hauria d’ordenar tota política educativa sobre IA és simple però contundent: la IA ha de servir per amplificar el judici humà, no per substituir-lo. Sense aquest principi, la tecnologia deriva cap a un model d’automatització del pensament i externalització de decisions que anul·la el sentit pedagògic de l’educació.
L’experiència docent continua sent insubstituïble perquè conté una dimensió de criteri, sensibilitat, intuïció i interpretació que cap algoritme pot replicar, per molta potència estadística que tinga.
3.2.2. Transformació del docent en dissenyador d’experiències cognitives
Aquest principi implica que el docent deixa de ser només un transmissor de continguts i passa a ser arquitecte de processos cognitius. Dissenya propostes en què la IA actua com una eina al servei de l’anàlisi, la reflexió i la metacognició.
La IA pot detectar patrons; el docent interpreta la seua significació. La IA pot suggerir recorreguts; el docent determina si tenen sentit. La IA pot generar activitats; el docent decideix si són adequades per al propòsit formatiu. Sense aquest filtre, la IA no amplifica res, només substitueix.
3.3.1. Documentació del model: versió, data, traçabilitat de biaixos i limitacions
L’ús de la IA en activitats acadèmiques no és neutre. Cada model incorpora biaixos, dades d’entrenament i limitacions específiques. Per això cal documentar:
quin model s’ha utilitzat,
quina versió,
en quina data es va generar la resposta,
quins riscos i biaixos coneguts té.
Aquesta documentació permet entendre el context de la resposta i evita que el seu resultat es perceba com una “veritat” universal.
3.3.2. Traçabilitat de prompts: registre d’instruccions i informes d’ús
Els prompts són decisions pedagògiques. Determinen el tipus de resposta i, per tant, formen part del procés d’aprenentatge. Cal conservar-los, igual que es conserven esborranys, notes i processos intermedis d’un treball tradicional.
L’informe d’ús exigix que l’estudiant:
especifique quines eines ha utilitzat,
quins prompts ha introduït,
i quins resultats ha obtingut.
És l’única manera de garantir transparència i responsabilitat.
3.3.3. Verificació humana com a últim filtre de validació
La IA pot oferir informació útil, però no pot validar-se a si mateixa. La verificació final sempre és humana.
Això inclou:
contrastar dades
revisar coherència
detectar al·lucinacions,
identificar biaixos,
assegurar que el resultat és pedagògicament adequat.
Sense aquesta verificació, la IA deixa de ser un amplificador i es converteix en un substitut irresponsable.
3.4.1. Principis europeus: supervisió humana, solidesa, privacitat, transparència, equitat, benestar, rendició de comptes
Europa ha establit un marc clar: tota IA utilitzada en educació ha de complir un conjunt de principis que no són negociables. Aquest marc té un objectiu evident: evitar que la IA educativa s’integre de manera acrítica o per defecte.
Els principis estableixen que la IA ha de ser:
supervisada per humans,
segura i robusta,
respectuosa amb la privacitat,
transparent i explicable,
equitativa,
beneficiosa socialment,
i sotmesa a rendició de comptes.
3.4.2. Compliment de RGPD, detecció de biaixos i prevenció de discriminacions tecnològiques
L’educació és un dels espais més sensibles en termes de dades personals. Utilitzar IA sense control equival a exposar l’alumnat a riscos de vigilància, classificació injusta i discriminació algorítmica.
Això implica:
limitar la captura de dades a allò estrictament necessari,
verificar que els models no discriminen per origen, context o necessitats educatives,
garantir que les dades no es reutilitzen amb finalitats comercials.
Sense aquest marc, la IA pot normalitzar pràctiques de vigilància massiva que erosionen drets fonamentals.
3.5.1. Deure de verificar l’exactitud, la qualitat i els drets d’autor del contingut generat
L’usuari (estudiant, professor o investigador) és responsable del contingut generat mitjançant IA. No pot al·legar ignorància ni confiar acríticament en la resposta del sistema.
Ha de:
verificar l’exactitud,
assegurar la qualitat,
comprovar el respecte als drets d’autor,
evitar la difusió d’informació errònia.
La IA no eximeix de responsabilitats, les intensifica.
3.5.2. Risc de delegació cognitiva quan la pressió comercial empeny a l’ús acrític
La temptació és clara: la IA és ràpida, eficient i aparentment fiable. Les plataformes comercials empenyen cap a un ús massiu que elimina la necessitat d’esforç cognitiu.
Aquesta delegació és un risc estructural:
atrofia el pensament crític,
erosionar la capacitat d’escriure i argumentar,
converteix la IA en un substitut, no un suport.
El sistema educatiu ha de resistir aquesta pressió comercial per preservar la sobirania pedagògica i la integritat del procés d’aprenentatge.
Integritat acadèmica, polítiques d’ús i alfabetització crítica
4.1.1. Text generat per IA com a contingut “nou” però no per això honest si no es declara
La IA generativa produeix contingut original en el sentit tècnic: no copia fragments existents, sinó que genera text estadísticament plausible. Però aquesta “novetat” no equival a honestedat acadèmica. En el context educatiu, l’honestedat no depén de l’origen del text, sinó de la transparència del procés. Presentar com a propi un text produït amb assistència algorítmica sense declarar-ho implica ocultar informació rellevant sobre l’autoria, la metodologia i la naturalesa del treball.
La integritat acadèmica, per tant, s’ha d’actualitzar: no basta amb evitar la còpia literal; cal explicitar la participació de la IA en qualsevol fase del procés de producció.
4.1.2. Deshonestedat acadèmica com a absència d’atribució, no com a mera còpia literal
La deshonestedat ja no es limita al plagi en el sentit tradicional. En l’era de la IA, la falta d’atribució del contingut generat amb eines algorítmiques és una forma de frau. La qüestió no és si el text està o no copiat d’una font, sinó si l’estudiant està ocultant l’ús d’una tecnologia que ha contribuït substancialment al resultat. La violació de la integritat s’ubica, doncs, en l’opacitat: amagar el procés equival a falsejar-lo.
4.2.1. Doble regulació d’usos permesos/prohibits per a estudiants i docents
Cada assignatura ha d’establir una política clara i diferenciada per a estudiants i per a professorat. Els usos legítims i il·legítims no són simètrics: el professor pot utilitzar la IA per preparar materials sempre que mantinga criteri i supervisió; l’estudiant pot fer-la servir com a suport, mai com a substitut. La política ha de concretar exemples de pràctiques acceptables (esborranys, organització d’idees, verificació d’arguments) i prohibides (generació íntegra d’activitats avaluades, respostes automàtiques sense revisió, simulació de processos cognitius).
4.2.2. Construcció col·laborativa de la política amb l’alumnat
La política és més efectiva quan es formula en diàleg amb el grup. Implicar l’alumnat en la seua definició ajuda a establir un marc compartit, a aclarir expectatives i a construir un sentit de corresponsabilitat. Aquesta col·laboració no elimina l’autoritat del docent, però evita que la norma aparega com un artefacte imposat i fomenta una cultura de transparència i maduresa digital.
4.2.3. Distinció clara entre ús legítim (suport, esborrany, reflexió) i ús il·legítim (substitució del treball)
La frontera decisiva és aquesta: la IA és legítima quan serveix per a millorar el procés d’aprenentatge; es torna il·legítima quan el substitueix. Escriure amb IA és diferent d’aprendre amb IA. Fer-la servir per organitzar idees, revisar coherència o comparar arguments és acceptable; utilitzar-la per generar una resposta final i presentar-la com a pròpia anul·la el sentit de l’avaluació.
4.3.1. Declaració explícita de l’ús de la IA en treballs, com a condició de legitimitat
Tot ús d’IA en un treball acadèmic ha de ser declarat de manera clara, visible i sense ambigüitats. Aquesta declaració no és un detall menor: és la condició mateixa que converteix una pràctica en legítima. Sense transparència, el treball queda automàticament desqualificat en termes d’integritat.
4.3.2. Informe d’ús: eines, prompts i resultats com a part de l’evidència d’aprenentatge
Quan l’ús de la IA està permés, l’estudiant ha de presentar un informe que incloga:
les eines emprades,
els prompts utilitzats,
els fragments de resposta generats,
i les modificacions humanes posteriors.
Aquest informe forma part de la cadena d’evidència del procés d’aprenentatge i permet verificar que la IA ha actuat com a suport i no com a substitut.
4.3.3. Formats de citació: versió del model, data, enllaç i adaptació a estils (APA, MLA, etc.)
L’ús de la IA requereix citació formal. Cal especificar:
el model (p. ex., ChatGPT 5.1),
la versió,
la data exacta de generació,
l’adreça de l’eina,
i, si és necessari, una captura o fragment de la resposta utilitzada.
Els estils acadèmics ja han incorporat formats específics; la IA deixa de ser una “caixa negra” i passa a ser una font traçable.
4.4.1. Centralitat del procés: cadena d’evidència, fonts i decisions, no només producte final
El producte final ja no és un indicador fiable del treball cognitiu. En un context on la IA pot generar textos impecables en segons, el centre de gravetat de l’avaluació ha de desplaçar-se cap al procés: esborranys, decisions intermèdies, justificacions, fonts contrastades i reflexions metacognitives. El que s’avalua és el trajecte, no l’estètica del resultat.
4.4.2. Limitacions dels detectors tècnics i inutilitat del control policíac
Els detectors d’IA són imprecisos, vulnerables i poden penalitzar injustament estudiants que han treballat honestament. Basar l’avaluació en eines que ofereixen probabilitats i no evidències és pedagògicament indefensable. L’única estratègia viable és el disseny d’activitats que facen irrellevant el frau i que obliguen a demostrar pensament propi.
4.4.3. Reforç del pensament crític, creativitat i originalitat com a objectius troncals
L’aprenentatge ha de centrar-se en competències que l’IA no pot substituir: contrast d’idees, interpretació de fonts, capacitat d’argumentar, creativitat, formulació de preguntes i lectura crítica. Aquest gir no és opcional: és l’única manera de mantindre el sentit formatiu de l’educació superior.
4.5.1. Alfabetització en IA i alfabetització en ètica de la IA com a nucli formatiu
Saber utilitzar eines no és suficient. L’educació ha de formar auditors del sistema: persones capaces d’avaluar el funcionament de la IA, detectar-ne els límits i identificar biaixos. L’alfabetització algorítmica i l’alfabetització ètica han de ser troncals, no complementàries.
4.5.2. Microcursos previs a l’ús de IAG per entendre LLMs, biaixos, al·lucinacions
Abans de permetre l’ús de IAG, l’alumnat hauria de completar un microcurs obligatori que explique:
què és un model de llenguatge,
per què produeix al·lucinacions,
quins biaixos arrossega,
com verificar la informació generada,
i com interpretar críticament una resposta automatitzada.
4.5.3. Microcredencials d’IA ètica com a resposta estructural (cas CHARLIE)
El cas del projecte CHARLIE mostra una via realista: les microcredencials en IA ètica integren competències com equitat algorítmica, rendició de comptes i transparència dins d’un marc modular, reconegut i transferible. Aporten una estructura formal per garantir que l’ètica de la IA no quede relegada a cursos voluntaris, sinó que forme part del capital formatiu de qualsevol estudiant que utilitze IA en el seu itinerari acadèmic.
Equitat, acceptació i compatibilitat pedagògica
5.1.1. Necessitat d’igualar l’accés a eines premium per evitar jerarquies invisibles
La IA educativa introdueix una nova fractura: la divisió entre qui té accés a versions avançades i qui depén d’opcions gratuïtes i limitades. Aquesta desigualtat és subtil però poderosa. Si l’aprenentatge personalitzat, els tutors intel·ligents o les plataformes adaptatives només estan disponibles per a part de l’alumnat, apareix una jerarquia invisible que reforça diferències preexistents.
L’equitat no pot reduir-se a “tots poden crear un compte gratuït”. L’equitat real implica garantir accés igualitari a totes les funcionalitats que condicionen la qualitat de l’aprenentatge. Igualar l’accés no és un luxe institucional; és una condició de justícia educativa.
5.1.2. Bretxes prèvies amplificades per la IA si no hi ha polítiques d’inclusió
Sense polítiques d’inclusió, la IA amplifica desigualtats estructurals: estudiants amb menys recursos, famílies sense capital digital, territoris amb mala connectivitat, alumnat amb necessitats d’accés universal o contextos migratoris troben més barreres i menys suport.
La IA no compensa desigualtats per si sola. Les multiplica si no hi ha una acció institucional explícita que garantisca accés, suport i alfabetització per a tothom.
5.2.1. Pes de la utilitat percebuda i del gaudi en la intenció d’ús
Els estudis mostren que la variable que més determina la intenció d’usar IA és la utilitat percebuda: la sensació que la IA aporta alguna cosa real, que facilita l’aprenentatge o que resol problemes concrets.
El gaudi (“perceived enjoyment”) també influeix: quan l’eina és agradable d’usar, intuïtiva i respon de manera fluida, l’acceptació creix. En canvi, eines opaques, inestables o mal integrades generen rebuig. L’acceptació, per tant, no depén només de discursos polítics o normatius, sinó de l’experiència d’ús directa.
5.2.2. Compatibilitat amb el context i les pràctiques d’aprenentatge com a condició d’adopció
La compatibilitat pedagògica és decisiva. Una eina d’IA pot ser potent, però si no encaixa amb el currículum, amb la metodologia o amb la dinàmica d’un centre, resulta inútil.
Els estudiants accepten millor la IA quan perceben que reforça els seus hàbits d’estudi i que s’integra naturalment en les activitats habituals. Quan l’eina trenca ritmes, introdueix complexitat afegida o interfereix, l’acceptació s’enfonsa. El desplegament de la IA ha de ser contextual, no universalista.
5.3.1. Diferents percepcions segons context migratori, territori, necessitats de suport
La manera d’interpretar la IA no és homogènia. Estudiants de zones rurals, amb context migratori, en situacions de vulnerabilitat o amb necessitats de suport perceben riscos, oportunitats i amenaces de manera diferent.
La IA pot ser vista com una ajuda poderosa o com una barrera afegida, segons el punt de partida. Aquesta diversitat d’experiències revela que l’educació no pot dissenyar polítiques d’IA “per a tothom” basades en un usuari abstracte que no existeix.
5.3.2. Crítica al model de justícia basat només en “igualtat d’oportunitats tecnològiques”
Oferir la mateixa eina a tothom no garanteix justícia. La “igualtat d’oportunitats tecnològiques” és una ficció que ignora diferències socials, culturals i materials.
La justícia educativa amb IA exigeix mesures específiques:
suport addicional per als qui tenen menys capital digital,
adaptacions lingüístiques i culturals,
infraestructura de connectivitat garantida,
formació diferenciada i progressiva.
El sistema educatiu ha de corregir desigualtats, no invisibilitzar-les sota la retòrica de la “igualtat d’accés”.
5.4.1. Efecte de les formes lingüístiques i narratives en els malentesos sobre la IA
La percepció de la IA depén també del llenguatge amb què s’explica i de les narratives culturals que l’acompanyen. Quan es descriu de manera massa tècnica, genera rebuig; quan es presenta com a màgia o com a substitut, genera confusió.
Les paraules modelen la comprensió: explicar IA en un registre pròxim, culturalment situat, ajuda a reduir malentesos, prevenint expectatives irreals o visions catastrofistes.
5.4.2. Necessitat d’adaptar l’alfabetització en IA a contextos culturals i educatius concrets
No existeix una alfabetització en IA universal i aplicable arreu. Cada comunitat educativa necessita continguts adaptats al seu context social, lingüístic i cultural.
Això implica:
materials diferenciats per nivells educatius,
exemples contextualitzats,
consideració dels valors i pràctiques de cada centre,
casos reals pròxims a la realitat dels estudiants.
L’alfabetització ha de ser situada, no genèrica.
Condicions de possibilitat d’una IA educativa legítima
La IA només pot integrar-se legítimament si el sistema és capaç de gestionar les tensions centrals: innovar sense precipitar-se, introduir prudència sense frenar la transformació, i proporcionar formació docent sòlida per evitar que la responsabilitat recaiga en individus que s’autogestionen com poden.
L’educació no pot quedar segrestada per la fascinació tecnològica ni per les pressions comercials. La IA ha d’estar subordinada a criteris pedagògics, no a l’inrevés.
Això implica recuperar la sobirania pedagògica: definir què volem que la IA faça i què no, establir límits i mantindre el centre del procés educatiu en el judici humà.
No hi ha legitimitat possible amb sistemes opacs. La IA educativa ha de ser explicable, auditable i governada per normes clares. L’explicabilitat no és un requisit tècnic; és una condició democràtica.
Si un sistema no pot explicar per què recomana un camí, no té lloc en un entorn educatiu.
La IA pot funcionar com un mirall crític que fa visibles biaixos, errors i patrons de pensament. Aquesta dimensió obri un potencial pedagògic fort: utilitzar la IA no per resoldre tasques, sinó per analitzar com pensem, per confrontar arguments, per revisar els nostres processos.
Convertir la IA en un instrument de metacognició és una manera d’evitar la delegació cognitiva
La irrupció de la intel·ligència artificial generativa ha provocat respostes ràpides en les universitats valencianes, però aquestes respostes han sigut, en general, minses i insuficients per afrontar la magnitud del canvi. Els documents institucionals analitzats —la guia del Departament d’Història de l’Art de la Universitat de València, les recomanacions d’ús de la Universitat Politècnica de València i les directrius de la Universitat Jaume I— són testimonis d’un sistema que intenta situar-se davant una tecnologia disruptiva mentre encara opera, majoritàriament, amb categories pròpies del passat.
La tesi que vertebra aquest assaig combina dos vectors:
Diagnòstic: les universitats han reaccionat, però ho han fet amb una profunditat limitada.
Horitzó propositiu: només una combinació de confiança, humanisme i alfabetització multimodal permetrà mantindre la rellevància del sistema universitari en l’ecosistema digital emergent.
El fil conductor d’aquesta comparació és la dialèctica entre confiança i desconfiança, perquè és en aquest eix on es fa visible el mode en què cada institució interpreta la IA: com una amenaça o com una oportunitat. En el fons, es tracta d’una qüestió cultural que afecta especialment el sud d’Europa, on persisteix un paradigma de desconfiança lligat a la idea que l’engany és una via possible per obtenir resultats, i on l’error es viu com una marca de fracàs. En aquest context, la curiositat i l’exploració —necessàries per a qualsevol innovació educativa— són difícils d’exercir. I, malgrat això, renunciar a elles pot suposar perdre el tren de la història.
Per comprendre les diferències entre documents, es proposen tres eixos analítics:
Humanisme vs. Organització
Dues maneres de concebre la funció educativa: com a procés formatiu centrant-se en la persona o com a sistema que necessita protocols i garanties.
Confiança vs. Desconfiança
La IA com a suport que amplifica capacitats o com a perill que cal contindre.
Riscos vs. Oportunitats
La IA com a objecte de regulació mínima o com a horitzó creatiu que transforma l’aprenentatge.
1. Universitat de València – Història de l’Art
És el document que millor representa una visió humanista, positiva, orientadora i generadora de confiança. La IA s’hi concep com un instrument útil per aprofundir en el pensament crític, però mai com un substitut de l’autoria. El judici humà és el centre de tot, i l’alumnat és considerat un agent capaç de pensar, contrastar i decidir. L’enfocament aposta per un ús madur, reflexiu i pedagògic de la tecnologia.
2. Universitat Politècnica de València – Recomanacions
Es tracta del document més ampli i procedimental, dissenyat per a tota la comunitat universitària. És menys defensiu i més obert a propostes. El seu valor distintiu és que està escrit amb IA i ho declara, cosa que demostra un compromís real amb la transparència. És un text organitzatiu i esquemàtic, però orientat a integrar la IA amb naturalitat i amb una mentalitat institucional més moderna.
3. Universitat Jaume I – Directrius
És el document més defensiu i basat en la desconfiança. Prioritza riscos, advertències i limitacions. Es percep un context de redacció més primerenc, quan hi havia menys dades i més por als usos no legítims. La tecnologia és presentada sobretot com un espai problemàtic, amb èmfasi en la responsabilitat, la vigilància i el control disciplinari.
Aquest eix evidencia el contrast més profund entre les tres institucions:
UV: confiança formativa: El seu model se sosté en la convicció que la IA pot millorar l’aprenentatge si s’utilitza de manera crítica i honesta. La persona continua sent el centre del procés formatiu, i la IA, un suport per a “pensar millor”.
UPV: confiança institucional: No confia cegament, però tampoc demonitza. Aposta per donar eines, establir procediments, declarar l’ús d’IA i integrar-la en les dinàmiques de treball de tota la comunitat.
UJI: desconfiança preventiva: La IA és presentada com una font potencial de problemes: errors, biaixos, riscos ètics, vulneracions de dades. Predomina la por a l’ús indegut, i això limita la visió pedagògica i les oportunitats educatives.
Malgrat les diferències, els tres documents comparteixen una limitació de fons: encara pensen la intel·ligència artificial com si fora un sistema de pregunta-resposta, un model propi de la primera generació de ChatGPT. Aquest enfocament redueix la IA a un instrument textual, lineal i monoformat, quan la realitat actual és radicalment distinta.
La cocreació amb IA ja no és un acte puntual, sinó un procés iteratiu on la persona pensa, revisa, experimenta i transforma les seues pròpies idees. Aquest procés genera aprenentatge, no només producte. I, tanmateix, els tres documents regulen com si tot es reduïra a “mostrar el prompt”, una visió reduccionista que ignora la naturalesa dialògica de la tecnologia.
A més, tots tres comparteixen una ceguesa multimodal. No hi ha pràcticament cap referència a:
generació d’àudio,
creació de vídeo,
desenvolupament d’agents,
producció d’imatges,
formats visuals, interactius o híbrids.
És sorprenent, perquè aquestes són les tecnologies que més transformaran l’aprenentatge universitari en els pròxims anys. Continuem sepultats en el paradigma del text, com si la cultura acadèmica no poguera imaginar que un estudiant produïsca coneixement en imatges, en videografies, en podcasts o en presentacions generades conjuntament amb IA.
La conseqüència és clara: les tres universitats estan perdent oportunitats, perquè la IA multimodal no sols automatitza tasques, sinó que democratitza competències creatives que abans eren elitistes o requerien especialització tècnica.
Si es mesura la preparació institucional amb criteris seriosos, la conclusió és nítida:
cap de les tres universitats valencianes no està preparada per al futur immediat de la IA.
Cadascuna aporta una peça, però cap no té el trencaclosques complet:
La UV aporta humanisme, però no estructura.
La UPV aporta estructura, però no profunditat filosòfica.
La UJI aporta advertiments de risc, però poca innovació.
Cap no ha integrat de manera coherent els cinc pilars que definixen què significa “estar preparat” per al futur de la IA:
Preparació cultural (E): substituir la por mediterrània per una cultura de confiança responsable.
Preparació epistemològica (A): entendre què és realment la IA i com transforma el coneixement.
Preparació pedagògica (B): integrar la IA en activitats que fomenten criteri, creativitat i reflexió.
Preparació institucional (C): desenvolupar polítiques clares, vives, flexibles i actualitzables.
Preparació tecnològica (D): habilitar accés segur a IA multimodal, no sols textual.
Les tres universitats es mouen, però cap no ha fet encara la translació completa que exigeix el moment tecnològic actual.
El repte és tan gran que les solucions tradicionals ja no serveixen. Cal un paradigma valencià d’IA educativa que combine:
la confiança del món nòrdic,
el pensament crític humanista,
la flexibilitat tecnològica dels entorns disruptius,
i la cultura de cocreació pròpia de la IA generativa avançada.
Això implica abandonar la idea que l’objectiu de la universitat és evitar trampes i començar a pensar que l’objectiu és elevar la capacitat de pensar, encara que siga amb IA al costat. De fet, especialment amb IA al costat.
Cal impulsar institucions que assumisquen que:
la IA multimodal forma part del futur del treball i del futur de la recerca;
els estudiants han de saber dialogar, verificar i reflexionar, no ocultar o simular;
l’autoria és un procés compartit i madur, no un fet pur i intocable;
les eines d’IA no són enemigues educatives, sinó oportunitats de democràcia cognitiva.
Només així les universitats deixaran de reaccionar tard i malament i es convertiran en espais de maduresa digital.
El futur de la IA educativa en les universitats valencianes no depén de la tecnologia. Depén de la capacitat de canviar la cultura institucional. De superar la por a l’engany, el pes de la desconfiança i la fascinació per la vigilància. Depén de transformar la manera en què es concep el coneixement, l’aprenentatge i la creativitat.
La realitat és que les tres universitats han reaccionat, sí, però de manera insuficient. I el temps va més de pressa que les estructures. El repte no és escriure més polítiques, sinó construir una universitat capaç d’explorar, experimentar i educar en un entorn on la IA multimodal ja no és futur: és present.
El món no espera.
La pregunta és si les universitats sabran abandonar la por i construir, finalment, una cultura de confiança, humanisme i innovació real.
Jo, Carles López Cerezuela, declare que aquest treball és el resultat del meu propi procés d’aprenentatge, anàlisi i reflexió, havent mantingut en tot moment el control efectiu i la traçabilitat completa del desenvolupament creatiu i intel·lectual.
Autoria i originalitat
El contingut reflectix la meua aportació personal. Les eines d’intel·ligència artificial s’han utilitzat com a suport documental, lingüístic o analític, però sense substituir el meu raonament, criteri ni presa de decisions acadèmiques.
Transparència
Tota interacció amb sistemes d’IA que haja influït en el treball està documentada o puc acreditar-la amb precisió. Mantinc un registre complet del procés de cocreació, accessible per a qualsevol verificació.
Rigor i verificació
Assumisc la responsabilitat última sobre l’exactitud de les dades, la qualitat de les interpretacions, les cites, les referències i les conclusions presentades.
Protecció de dades
No he introduït informació personal, sensible o subjecta a confidencialitat en cap eina d’IA generativa. El treball s’ha elaborat complint els principis de privadesa i seguretat establits.
Asimilació i defensa
Estic en condicions d’explicar amb detall el procés seguit, d’acreditar la traçabilitat del treball i de defensar el coneixement adquirit en totes les seues fases, incloent-hi les parts on he utilitzat suport tecnològic.
Ús educatiu i crític de la IA
Reconec que l’ús de la IA té un propòsit estrictament formatiu i reflexiu. He emprat IA durant la recerca de contingut (ChatGPT, Gemini, DeepSeek i NotebookLM) i en la redacció del treball de manera cocreativa, sempre mantenint la supervisió humana forta, el control narratiu personalitzat i una traçabilitat exhaustiva de totes les iteracions. L’objectiu ha sigut millorar la comprensió, l’anàlisi i la qualitat final del treball, sense substituir l’esforç d’aprenentatge ni l’elaboració pròpia.