Intelligence Artificielle Générative

Les risques

L’IA est associée à une série de risques pour les usagers/ères qui impliquent de prendre en compte un certain nombre de précautions et de recommandations, pouvant être schématiquement rattachées à différentes étapes de l’utilisation d’une IA générative.

 

Général
Responsabilité.
Faire aveuglément confiance à l’IA générative et ne pas interroger l’outil peut mener à des erreurs. Les individus restent dépositaires de la responsabilité professionnelle ou morale liée à leur tâche.

Prompt
Protection des données/confidentialité.
Tout le contenu qui est soumis à un outil d’IA générative peut être consulté par le personnel de l’entreprise propriétaire, ou plus en cas de fuite de données. Il est donc crucial de savoir ce qui peut ou non être partagé avec une IA.

Contenu généré
Transparence. Ne pas mentionner l’utilisation d'IA génératives dans la création de contenus ou de solutions peut entraîner une confusion ou des malentendus sur l’origine et la nature des résultats obtenus. Il est nécessaire de toujours faire preuve de transparence par rapport aux processus de création.

Fiabilité. Les données générées par une IA générative doivent être considérées comme faillibles, car elles peuvent être biaisées, voire erronées. Il est nécessaire de toujours adopter une position critique vis-à-vis du contenu généré par une IA.

Propriété intellectuelle. L’IA pose deux types de défi en termes de protection intellectuelle; celui des droits de propriété associés aux données qui l’alimentent, et celui de la titularité de ce qu’elle produit par l’IA. Il est important de clarifier ces dimensions avant d’y avoir recours.

Utilisation
Durabilité.
L’IA générative consomme une quantité importante d'électricité, autant pour son développement que pour son usage quotidien. Il faut donc en faire un usage raisonné.


 

Cette section présente un approfondissement de la notion de risques pour comprendre les enjeux associés et les recommandations qui en découlent.

Je travaille sur le budget de mon service. Pour gagner du temps, je copie des données financières de l’institution ou des données sur les employé-es dans une requête, en retirant toute mention de l’Université. Plus tard, l’outil subit une cyberattaque, toutes les données sont publiées sur Internet. Comme j’ai utilisé une adresse UNIGE pour ouvrir mon compte IA, et donc pour faire les requêtes, n’importe qui peut déduire que les données financières sont celles de l’UNIGE, exposant ainsi l’institution.

D’un point de vue technique, tout le contenu soumis à une IA générative est accessible et consultable par l’entreprise propriétaire de l’outil. Il est peu probable que celle-ci s’intéresse au contenu individuel des requêtes et la plupart d’entre elles s’engagent à ne pas le faire. Les utilisateurs/trices doivent toutefois envisager que toutes leurs données ou requêtes deviendront des informations publiques. D’une part, il existe un risque de fuite de données dans le cas d’une faille de sécurité. D’autre part, il n’existe aucune assurance vérifiable sur la gouvernance des données par ces entreprises, par exemple concernant le stockage et l’utilisation des requêtes pour développer le modèle.

 

À ce titre, il est important de comprendre que toutes les données n’ont pas la même sensibilité, et que celle-ci dépend de leur nature.

Les données peuvent être classées selon quatre catégories principales:

  • Anonymes:  elles ne posent pas de problème car elle sont indépendantes, soit elles sont intrinsèquement dissociées d’un individu en particulier ou ce lien a été rompu lors d’une anonymisation.
  • Ordinaires: ce sont les données personnelles classiques, souvent demandées lorsque l’on remplit un formulaire ou lorsque l’on traite le dossier d’un ou d’une employée ou d’une ou d’un étudiant (e.g. âge, sexe, nom, etc.). Elles permettent d’identifier une personne sans discrimination possible.
  • Sensibles:  ce sont des données personnelles qui portent une information qui, si elle était connue, pourrait être utilisée au détriment de la personne (e.g. religion, congé maladie, assurances, etc.).
  • Secrètes ou confidentielles:  ce sont des données possédant un enjeu stratégique. Plus rarement associées à des individus, elles concernent généralement des informations politiques, militaires, industrielles ou financières.

Chacune de ces catégories de données exige un niveau de protection approprié pour éviter les risques potentiels.

Je suis chargée de recrutement et veux rédiger des lettres de refus personnalisées pour humaniser le processus, en offrant des retours plus détaillés et spécifiques. Sans le mentionner, j’utilise un outil d’IA. Un-e candidat-e reconnaît la structure et le style typiques d’une IA générative et soulève des questions sur un forum public. Mon intention initiale se noie dans une polémique engageant la transparence de l’Université dans ses communications.

Le devoir de transparence lors de l’utilisation d’intelligences artificielles génératives est une responsabilité incontournable dans les pratiques professionnelles. Cette transparence suppose une communication claire sur la manière dont ces technologies fonctionnent, leurs capacités ainsi que leurs limitations. Elle implique aussi de signaler l’utilisation d’IA génératives dans la création de contenus ou de solutions pour éviter toute confusion sur l’origine et la nature des résultats obtenus.

J’utilise ChatGPT pour répondre aux questions fréquentes des étudiant-es, gérer les courriels et même rédiger des documents administratifs. Au bout de quelques semaines, il apparaît que ChatGPT produit parfois des réponses inexactes ou inappropriées. Il fournit des informations erronées sur les dates limites de dépôt de certains dossiers académiques ou rédige des réponses confuses qui donnent lieu à de nombreux recours.

Les données générées par une IA générative doivent être considérées comme faillibles (biaisées ou fausses). Cela s’explique par plusieurs facteurs:

  1. Limite dans le temps. La plupart des modèles d’IA génératives ont été entraînés sur un ensemble de données correspondant à une période particulière sans connaissance des faits qui se situent avant ou après.

  2. Hallucination. Les modèles d’IA utilisent des algorithmes pour détecter des motifs, combiner des éléments et produire un contenu susceptible de correspondre à la requête. Or, il existe des motifs imperceptibles ou dénués de sens pour l’humain. Incidemment, cela permet la création de contenus originaux et créatifs mais, parce que l’IA n’est pas critique, cela peut induire l’apposition d’informations individuellement correctes qui, mises ensemble, sont fausses. Au gré des mises à jour, cela devient plus rare, mais le risque reste présent.

  3. Biais algorithmique. La qualité des contenus générés dépend de la qualité des données à partir desquelles le modèle a été entraîné. Si les données sont biaisées, les résultats le refléteront. Des biais dans la réponse formulée par l’IA peuvent également émerger en fonction de qui pose la question. Une utilisation irréfléchie peut entraîner involontairement le renforcement des stéréotypes ou des discriminations sociales.

  4. Mode collapse. Plutôt que de générer des résultats variés, le modèle commence à produire de manière répétée un nombre très restreint de résultats similaires. Soit il n’a pas su capturer la richesse des données du modèle, soit il en reflète le manque de diversité. Cela crée un point aveugle dans l’interprétation des résultats; quand quelque chose manque, on s’en rend compte moins facilement que si quelque chose est faux.

 Je dois réaliser des illustrations pour la communication d’un événement et fournis les idées et les directives à l’IA qui conçoit les images. Je considère ces créations comme le fruit de mon travail créatif et de ma direction artistique. Après mon événement, je découvre les mêmes images réutilisées dans une campagne publicitaire. Je contacte l’entreprise qui a développé l’IA. Conformément aux termes d’utilisation, elle détient les droits de propriété intellectuelle sur les images générées.

L’IA se base sur des données, notamment des œuvres et des textes qui ne sont pas nécessairement libres de droits, pour générer de nouveaux contenus. Cela peut concerner les données soumises lors d’une requête, mais également le modèle de base. Cette capacité à reproduire ou à transformer des œuvres protégées sans le consentement explicite des détenteurs/trices de droits soulève des interrogations sur les violations potentielles du droit d’auteur-e. De plus, l’utilisation de l’IA pose la question de la titularité de ce qu’elle produit. Cette titularité est normalement assurée lors d’un usage payant.

Lors des réunions d’équipe, les idées et les discussions sont représentées de manière simple et efficace sur un tableau blanc. Séduit-e par l’IA, je remplace ce système et génère des images d’illustration pour chaque nouvelle idée. Après plusieurs essais, j’obtiens une image complexe, censée représenter visuellement cette idée, pour rendre les discussions plus dynamiques et visuelles. Mais cette méthode s'avère rapidement plus distrayante qu'utile et aura eu un impact environnemental non négligeable.

L’IA générative est une grosse consommatrice d’électricité, tant pour son développement que pour son usage quotidien. Chaque requête ChatGPT équivaut à la consommation énergétique d’une lampe LED de 5W pendant une heure. La création de GPT-3 a généré plus de 500 tonnes de CO2, soit l’équivalent de 123 véhicules à essence pendant un an, et 1287 MWh d’électricité, soit la consommation mensuelle de 1467 foyers américains. GPT-4 a été créé avec 500 fois plus de paramètres que GPT-3. Le développement de l’IA et son utilisation généralisée ne sont pas sans conséquences en termes de durabilité. Il faut prendre en compte la consommation énergétique de l’IA générative et limiter son utilisation à des usages spécifiques à forte valeur ajoutée.

 

RESPONSABILITÉ

Toutes les recommandations énoncées peuvent se résumer à une notion: les IA génératives ne sont que des outils informatiques puissants à utiliser pour assister les individus dans leurs tâches. Les individus restent dépositaires de la responsabilité professionnelle ou morale associée à leur tâche; elle ne peut être déléguée à l’IA générative qui ne peut être considérée comme autre chose qu’un outil.