Utilizarea Inteligenței Artificiale pentru detectarea stărilor emoționale ale persoanelor. Potențiale riscuri asupra drepturilor fundamentale ale omului
Roxana Matefi - iulie 9, 2023I. Introducere
Rolul din ce în ce mai crescut al Inteligenței Artificiale în viețile fiecăruia dintre noi, în domenii din ce în ce mai diverse impune cu necesitate adoptarea unei legislații unitare la nivel european, obligatorie pentru toate statele membre, de natură a reglementa implicațiile acestei forme de inteligență. Demersurile în acest sens au fost accelerate în ultima perioadă, astfel încât actualul draft al reglementării în materia AI ar putea îmbrăca o forma finală, care să fie adoptată până la finele anului în curs. Între timp textul reglementării este supus analizei Comisiei Europene, Consiliului și Parlamentului European, în scopul ajungerii la o variantă comun acceptată.
Astfel, la 14 iunie anul acesta, Parlamentul European a adoptat Amendamentele referitoare la propunerea de regulament al Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind inteligența artificială (Legea privind inteligența artificială) și de modificare a anumitor acte legislative ale Uniunii.
Unul dintre amendamentele pe care le propune Parlamentul European este următorul: „Există preocupări serioase cu privire la baza științifică a sistemelor de IA care vizează detectarea emoțiilor, a caracteristicilor fizice sau fiziologice, cum ar fi expresiile faciale, mișcările, frecvența pulsului sau vocea. Emoțiile sau exprimarea emoțiilor și percepțiile acestora variază considerabil de la o cultură la alta și de la o situație la alta și chiar la nivelul unei singure persoane. Printre principalele deficiențe ale unor astfel de tehnologii se numără fiabilitatea limitată (categoriile de emoții nu sunt nici exprimate în mod fiabil printr-un set comun de mișcări fizice sau fiziologice și nici asociate fără echivoc cu un astfel de set), lipsa specificității (expresiile fizice sau fiziologice nu corespund perfect categoriilor de emoții) și generalizibilitatea limitată (efectele contextului și ale culturii nu sunt suficient luate în considerare). Probleme de fiabilitate și, prin urmare, riscuri majore de abuz pot apărea, în special, atunci când se implementează sistemul în situații reale legate de aplicarea legii, gestionarea frontierelor, locul de muncă și instituțiile de învățământ. Prin urmare, introducerea pe piață, punerea în funcțiune sau utilizarea sistemelor de IA destinate utilizării în aceste contexte pentru detectarea stării emoționale a persoanelor fizice ar trebui interzise”[1].
Abordarea Parlamentului European deschide calea către discuții ample privind această nouă tehnologie a inteligenței emoționale artificiale și implicit asupra riscurilor pe care aceasta le poate genera.
II. Conceptele de Inteligență Emoțională și Inteligență Emoțională Artificială
Inteligența emoțională artificială este definită de către doctrină drept „o tehnologie în curs de dezvoltare utilizată pentru a face predicții probabilistice privind starea emoțională a persoanelor, utilizând ca surse date privind mișcările faciale, limbajul corpului, tonul vocii sau cuvintele alese[2]”. Conform unei alte surse, „inteligența emoțională nu este decât o tehnologie bazată pe interacțiunea om-mașină, care detectează expresiile faciale și recunoaște în mod automat emoțiile din vorbire și din date audio-vizuale”[3].
Inteligența emoțională, pe de altă parte a fost definită pentru prima dată de către cercetătorii John Mayer and Peter Salovey care o califică drept „abilitatea de a monitoriza propriile sentimente și emoții și pe cele ale altora, de a face diferența între ele și de a utiliza această informație pentru a ghida gândirea și acțiunile unei persoane[4]”. Conceptul a fost îndelung analizat, explorat și popularizat, printre alții și de psihologul, Daniel Goleman.
III. Utilizarea practică a instrumentelor de Inteligența Artificială pentru detectarea stărilor emoționale ale individului
Utilizarea instrumentelor de inteligență artificială pentru „decodificarea” stării emoționale a unei persoane poate fi adesea asociată cu o serie de potențiale riscuri asupra drepturilor fundamentale ale omului.
Într-un raport întocmit sub egida Mandatului Raportorului Special pentru promovarea şi protecția drepturilor și a libertăților fundamentale ale omului în combaterea terorismului se arată că „instrumentele de recunoaștere facială sunt din ce în ce mai mult utilizate pentru a evalua expresiile faciale ale unei persoane cu scopul de a deduce starea emoțională a persoanei, inclusiv într-un context de aplicare a legii, deși asemenea instrumente prezintă niveluri insuficiente de sensibilitate la diferențele culturale sau de altă natură în modul în care oamenii se comportă și își exprimă emoțiile”[5].
Printre domeniile în care sunt utilizate astfel de tehnici de inteligență emoțională artificială, cu potențial vătămător pentru o serie de drepturi ale omului putem menționa prevenirea și contracararea terorismului, sens în care „au fost dezvoltate instrumente de IA care pretind a deduce starea emoțională și mentală a persoanelor, pe baza expresiilor lor faciale și a altor date biometrice predictive, pentru a decide dacă acestea reprezintă o amenințare pentru securitate[6]”. Astfel „multe țări experimentează utilizarea extinsă a datelor biometrice la porțile de intrare. Aici sunt incluse recunoașterea facială în mișcare/recunoașterea caracteristicilor motrice care identifică pasagerii în mers, recunoașterea facială la check in și alte servicii de la aeroport[7]”.
Tot un potențial de risc crescut în ceea ce privește drepturile omului îl prezintă utilizarea instrumentelor de Inteligență Artificială în cadrul interogatoriilor administrate în cadrul procedurilor judiciare pentru a stabili veridicitatea afirmațiilor celor supuși unei astfel de proceduri.
În timp ce „poligraful standard măsoară anumite aspecte psihologice, precum activitatea cardiovasculară, activitatea respiratorie și activitatea electrodermală”[8] cu scopul de a stabili veridicitatea răspunsurilor persoanelor supuse unui astfel de test, „inteligența emoțională artificială promite posibilitatea de a determina dacă o persoană spune adevărul pe baza expresiilor faciale și tonului vocii, în locul sau alături de funcțiile tradițional observate”[9].
În raportul Înaltului Comisar pentru Drepturile Omului la Națiunile Unite, raport privind Dreptul la viață privată în era digitală, din anul 2021, se arată că „sistemele de recunoaștere facială a emoțiilor operează în baza premisei că este posibilă deducerea automată și sistematică a sării emoționale a persoanelor pe baza expresiilor lor faciale, aspect lipsit de o bază științifică solidă. Cercetătorii au identificat doar o asociere slabă a emoțiilor cu expresiile faciale și au subliniat faptul că expresiile faciale variază în cadrul culturilor și diferitelor contexte, ceea ce face recunoașterea emoțiilor susceptibilă de interpretare eronată[10]”.
Cele două exemple despre care am făcut vorbire mai sus sunt, așa cum am arătat în partea introductivă a acestei secțiuni, circumscrise unui context de aplicare a legii. Există însă numeroase alte situații din afara acestui context, care presupun aplicarea inteligenței artificiale emoționale și care, de asemenea, vin cu un potențial de risc asupra drepturilor omului. Sigur că fiecare astfel de ipoteză ar merita o analiză distinctă, însă ne vom limita doar la o enumerare exemplificativă a acestora.
În acest sens, putem menționa utilizarea acestor tehnologii în instituțiile de învățământ pentru a analiza comportamentul/starea emoțională a elevilor; în procesul de recrutare în analiza comportamentului viitorilor angajați; în social media pentru a realiza profilul indivizilor și a examina comportamentul de grup, în campaniile politice etc.[11]
O analiză detaliată a aplicării acestor instrumente de inteligență artificială pentru stabilirea stării emoționale a unei persoane în scopurile descrise mai sus creează un potențial de vătămare pentru o serie de drepturi precum dreptul la libertate, dreptul la un proces echitabil, dreptul la liberate de mișcare, dreptul la viață privată etc.
IV. Concluzii
Inteligența artificială, în general și inteligența artificială emoțională, în particular sunt tehnologii în continuă dezvoltare, al căror impact asupra vieților noastre devine din ce în ce mai evident. În acest context al unei realități pe care nu o putem ignora, este firesc să ne întrebăm care sunt plusurile și minusurile utilizării acestor instrumente, dacă drepturile noastre sunt protejate sau dimpotrivă dacă sunt susceptibile de a fi afectate și în ce măsură, ce mecanisme de protecție avem în fața unor eventuale încălcări ale drepturilor noastre derivând din utilizarea acestor instrumente, etc. În condițiile în care exprimarea emoțiilor este diferită în cadrul diferitelor culturi, precum și în funcție de diferitele situații în care se găsește o persoană, riscul de abuz atunci când sunt utilizate instrumente de inteligență artificială pentru identificarea stării emoționale și mentale a persoanelor este major, cu atât mai mult când utilizarea are loc în contexte de aplicare a legii. În atare condiții soluția de interzicere a introducerii pe piață, a punerii în funcțiune sau a utilizării sistemelor de IA destinate utilizării pentru detectarea stării emoționale a persoanelor fizice, inserată în Amendamentele Parlamentului European referitoare la propunerea de regulament al Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind inteligența artificială (Legea privind inteligența artificială) și de modificare a anumitor acte legislative ale Uniunii, este justificată.
Bibliografie
• Podoletz, L. We have to talk about emotional AI and crime. AI & Soc 38, 1067–1082 (2023). https://doi.org/10.1007/s00146-022-01435-w;
• Salovey, P., & Mayer, J. D. (1990). Emotional Intelligence. Imagination, Cognition and Personality, 9(3), 185–211. https://doi.org/10.2190/DUGG-P24E-52WK-6CDG;
• Krisztina Huszti-Orbán, Fionnuala Ní Aoláin, Use of Biometric Data to Identify Terrorists: Best Practice or Risky Business? – https://www.ohchr.org/sites/default/files/Documents/Issues/Terrorism/biometricsreport.pdf;
• Podoletz, L. We have to talk about emotional AI and crime. AI & Soc 38, 1067–1082 (2023). https://doi.org/10.1007/s00146-022-01435-w;
• Garcia-Garcia, J.M., Penichet, V.M.R., Lozano, M.D. et al. Using emotion recognition technologies to teach children with autism spectrum disorder how to identify and express emotions. Univ Access Inf Soc 21, 809–825 (2022). https://doi.org/10.1007/s10209-021-00818-y;
• https://www.ohchr.org/en/privacy-in-the-digital-age/reports.
DOWNLOAD FULL ARTICLE[1] https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_RO.html[2] Podoletz, L. We have to talk about emotional AI and crime. AI & Soc 38, 1067–1082 (2023). https://doi.org/10.1007/s00146-022-01435-w.[3] M. Amorim et al., Exploring opportunities for artificial emotional intelligence in service production systems IFAC-PapersOnLine (2019) apud Himanshu Kumar, A. Martin, Artificial Emotional Intelligence: Conventional and deep learning approach, https://www.sciencedirect.com/science/article/abs/pii/S0957417422016931#preview-section-references.
[4] Salovey, P., & Mayer, J. D. (1990). Emotional Intelligence. Imagination, Cognition and Personality, 9(3), 185–211. https://doi.org/10.2190/DUGG-P24E-52WK-6CDG.
[5] Krisztina Huszti-Orbán, Fionnuala Ní Aoláin, Use of Biometric Data to Identify Terrorists: Best Practice or Risky Business? – https://www.ohchr.org/sites/default/files/Documents/Issues/Terrorism/biometricsreport.pdf.
[6] https://www.ohchr.org/en/privacy-in-the-digital-age/reports.
[7] https://www.ohchr.org/sites/default/files/Documents/Issues/Terrorism/biometricsreport.pdf.
[8] Podoletz, L. We have to talk about emotional AI and crime. AI & Soc 38, 1067–1082 (2023). https://doi.org/10.1007/s00146-022-01435-w.
[9] Ibidem.
[10] https://www.ohchr.org/en/privacy-in-the-digital-age/reports.
[11] Pentru mai multe detalii, a se vedea Podoletz, L.
Arhive
- aprilie 2025
- martie 2025
- februarie 2025
- ianuarie 2025
- decembrie 2024
- noiembrie 2024
- octombrie 2024
- septembrie 2024
- august 2024
- iulie 2024
- iunie 2024
- mai 2024
- aprilie 2024
- martie 2024
- februarie 2024
- ianuarie 2024
- decembrie 2023
- noiembrie 2023
- octombrie 2023
- septembrie 2023
- august 2023
- iulie 2023
- iunie 2023
- mai 2023
- aprilie 2023
- martie 2023
- februarie 2023
- ianuarie 2023
- decembrie 2022
- noiembrie 2022
- octombrie 2022
- septembrie 2022
- august 2022
- iulie 2022
- iunie 2022
- mai 2022
- aprilie 2022
- martie 2022
- februarie 2022
- ianuarie 2022
- Supliment 2021
- decembrie 2021
- noiembrie 2021
- octombrie 2021
- septembrie 2021
- august 2021
- iulie 2021
- iunie 2021
- mai 2021
- aprilie 2021
- martie 2021
- februarie 2021
- ianuarie 2021
- decembrie 2020
- noiembrie 2020
- octombrie 2020
- septembrie 2020
- august 2020
- iulie 2020
- iunie 2020
- mai 2020
- aprilie 2020
- martie 2020
- februarie 2020
- ianuarie 2020
- decembrie 2019
- noiembrie 2019
- octombrie 2019
- septembrie 2019
- august 2019
- iulie 2019
- iunie 2019
- mai 2019
- aprilie 2019
- martie 2019
- februarie 2019
- ianuarie 2019
- decembrie 2018
- noiembrie 2018
- octombrie 2018
- septembrie 2018
- august 2018
- iulie 2018
- iunie 2018
- mai 2018
- aprilie 2018
- martie 2018
- februarie 2018
- ianuarie 2018
- decembrie 2017
- noiembrie 2017
- octombrie 2017
- septembrie 2017
- august 2017
- iulie 2017
- iunie 2017
- mai 2017
- aprilie 2017
- martie 2017
- februarie 2017
- ianuarie 2017
- decembrie 2016
- noiembrie 2016
- octombrie 2016
- septembrie 2016
- august 2016
- iulie 2016
- iunie 2016
- mai 2016
- aprilie 2016
- martie 2016
- februarie 2016
- ianuarie 2016
- decembrie 2015
- noiembrie 2015
- octombrie 2015
- septembrie 2015
- august 2015
- iulie 2015
- iunie 2015
- mai 2015
- aprilie 2015
- martie 2015
- februarie 2015
- ianuarie 2015
Calendar
L | Ma | Mi | J | V | S | D |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Lasă un răspuns
Trebuie să fii autentificat pentru a publica un comentariu.