La veu, no hem d’oblidar que és un atribut personal, propi i individual, tenint uns trets distintius únics i singulars. Aquests trets individualitzen a cada persona de manera directa i permeten la identificació de l’individu concret. Doncs bé, la intel·ligència artificial està provocant que algunes de les anomenades empreses disruptives, transitin per senda de la il·legalitat, en enfrontar-se a aquesta tecnologia, sense observar normatives com són la de privacitat o la de propietat intel·lectual. Un clar exemple, és l’ús de la veu d’actors de doblatge.
S’ha de sol·licitar el seu consentiment per a incloure-la en anuncis, vídeos promocionals d’esdeveniments o curtmetratges. Doncs bé, existeixen multitud de vídeos en la xarxa que manquen d’aquest consentiment. Un exemple d’ells és l’ús de la IA per a curtmetratges. Ja existeixen directors que graven el mateix en castellà i posteriorment utilitzen eines de IA per a altres idiomes.
Ens topem amb flagrants vulneracions de la normativa, que demostren que en la societat no es té consciència que la veu és considerada com una dada personal, igual que ho és qualsevol informació que permeti determinar, directament o indirectament la identitat, ja es tracti d’una matrícula d’un vehicle, una imatge, etc.
La posada en el mercat, per a entitats i consumidors en general, de tractaments que inclouen solucions fonamentades en tecnologies disruptives, com les basades en components IA, exigeix que s’implementin garanties de qualitat i seguretat. La disponibilitat d’una tecnologia o la seva novetat no és raó suficient per a comercialitzar productes que no compleixin amb un nivell adequat de qualitat de servei, especialment quan aquests requisits estan establerts en una norma.
L’ús d’estratègies de transparència, gestió del risc i mecanismes d’auditoria i certificació no sols permetran el compliment del que s’estableix en la normativa de privacitat, sinó que milloraran la confiança dels usuaris en els productes i serveis basats en IA.
El Reglament d’Intel·ligència Artificial, també conté obligacions de transparència, relacionades amb l’obligació d’advertir a les persones físiques que estan interactuant amb un sistema d’IA i l’exigència de transparència sobre els continguts amb els quals s’entrena la IA. Aquest fet, pot permetre conèixer i protegir els continguts de tercers que són utilitzats per la IA.
Un dels principals problemes de les solucions d’IA no és la IA en si, sinó com usaran les persones i els nous biaixos psicològics que es deriven del seu ús. En particular, és necessari prestar especial atenció a atribuir responsabilitats a components IA sense supervisió i sense adoptar una posició crítica. La delegació de la presa de decisions a màquines no és nova; ja ocorre amb els algorismes deterministes, però el biaix d’atribuir una autoritat o pes superior a un resultat inferit per una solució de IA pot fer incrementar els riscos derivats d’aquesta delegació de responsabilitat.
Alberto Cuesta, advocat i auditor d’entorns tecnològics