És un camp de la informàtica que es dedica a la creació de sistemes i algoritmes amb la intenció d'imitar la intel·ligència humana. Aquests sistemes estan dissenyats per aprendre, raonar, percebre i prendre decisions de manera autònoma.
Ramón López de Mántaras, fundador de l'Institut de Recerca d'Intel·ligència Artificial del CSIC
És una branca de la IA que s'enfoca en la generació de contingut original (text, imatges, àudio o vídeo), a partir de dades existents (dades d’entrenament), utilitzant grans models de llenguatge (LLM = Large Language Models) i com a resposta a peticions (prompts). Els models són entrenats per aprendre i reproduir l'estructura del llenguatge.
Hi ha molts sistemes d'IAG:
La IAG ens pot ajudar a:
La IAG no és perfecta i pot generar resultats inexactes o falsos. Actualment, i especialment si fem servir eines d'IAG gratuïtes, ens trobem amb limitacions com:
Cal conèixer i tenir en compte els riscos ètics que planteja la IAG per garantir-ne un ús responsable i ètic. Alguns dels més importants són:
La recopilació i l'ús de dades personals per entrenar models d'IAG planteja qüestions rellevants de privacitat i seguretat. Cal garantir que les dades s'utilitzin de manera ètica i que es protegeixin els drets de les persones. Per aquest motiu no es poden introduir dades sensibles, ni confidencials a les eines d’IAG no contractades per la UPF. Quan interaccionis amb les eines d’IAG, cal que t’asseguris que compleixes les polítiques de seguretat establertes per la UPF.
Els models d'IAG aprenen de les dades amb els quals són entrenats. Si aquestes dades contenen biaixos (de grup social, visió del món hegemònica, etc.), el model els reproduirà i els amplificarà en els seus resultats. Això pot portar a perpetuar la discriminació de determinades persones o grups, en àmbits com la contractació, la valoració d’opcions, la justícia, la publicitat, etc.
Les eines d’IAG es poden utilitzar per crear contingut fals que és difícil de distingir del real, i que sovint pretén manipular i influir en decisions. Això planteja un risc per a la democràcia i la confiança en les institucions.
En l’àmbit acadèmic i en el context d’activitats avaluables, no es pot presentar com a propi material elaborat amb IAG. L'ús d'eines d'IAG en el context acadèmic ha de ser transparent i honest, i sempre que s’incloguin fragments de text, codi, imatge, etc. generats amb IAG cal identificar-los i citar correctament la font que s’ha emprat per generar-los.
Cal usar eines d'IAG tenint en compte l'eficiència energètica i que prioritzin l'ús de fonts d'energia renovables per reduir l’alt consum energètic. Segons l’informe Desarrollando una Gen AI sostenible, del Capgemini Research Institute, "Fer entre 20 i 50 preguntes a un model d’IAGen consumeix aproximadament 500 ml d'aigua”, o bé “Una sola consulta a ChatGPT consumeix gairebé deu vegades l'energia que requereix una cerca a Google”.
Els models d'IAG aprenen a partir de grans quantitats de dades, però sovint no es pot identificar de quin conjunt específic de dades s’extreu la informació per generar continguts.
Les eines d'IAG poden generar continguts que són similars o fins i tot idèntics a obres protegides per drets d'autor i poden modificar o transformar obres existents i arribar a crear versions derivades sense autorització.