L'Autorité Italienne de Protection des Données Lance une Enquête sur Sora d'OpenAI
- Dawson TRINH

- 16 mars 2024
- 2 min de lecture
Dernière mise à jour : 18 mars 2024

Dans un paysage technologique en constante évolution, l'intelligence artificielle (IA) continue de pousser les limites de l'innovation.
Cependant, avec de grandes avancées viennent de grandes responsabilités, en particulier en ce qui concerne la protection de la vie privée.
OpenAI, la start-up à la pointe de l'innovation en matière d'intelligence artificielle, est une fois de plus sous le feu des projecteurs réglementaires.
L'autorité italienne de protection des données (Garante per la protezione dei dati personali) a ouvert une enquête concernant le dernier-né des outils d'OpenAI : Sora, une technologie prometteuse capable de générer des vidéos réalistes à partir de simples instructions textuelles.
Cependant, avec de grandes avancées viennent de grandes responsabilités, en particulier en ce qui concerne la protection de la vie privée.
Sora : Un Pas de Géant à l'Épreuve de la Réglementation Européenne
Lancé mi-février, Sora a immédiatement captivé l'attention grâce à sa capacité à produire des vidéos d'une minute qui semblent étonnamment réelles.
Cette prouesse technique ne manque pas de soulever des questions de la part des régulateurs, particulièrement en ce qui concerne le traitement et la protection des données personnelles des utilisateurs.
OpenAI se voit désormais accorder un délai de 20 jours pour apporter des réponses à l'autorité italienne.
Les Points Clés de l'Enquête
OpenAI doit éclaircir plusieurs aspects relatifs à Sora, notamment :
La disponibilité du modèle d'IA au public.
Les données utilisées pour l'entraînement de l'algorithme.
La nature des informations recueillies pour perfectionner le modèle, y compris les données sensibles.
Les sources des données et la manière dont elles sont traitées.
Transparence et Conformité : L'Interview Qui Sème le Doute
Une récente interview de Mira Murati, CTO d'OpenAI, a attiré l'attention des régulateurs après que des réponses évasives ont été données concernant les sources de données utilisées pour entraîner Sora.
La mention d'une utilisation possible de "données publiques et de données sous licence" sans plus de précisions soulève des questions sur la conformité de Sora avec le RGPD.
Un Précédent Inquiétant : ChatGPT et Les Foudres du Garante
Il est à noter que ce n'est pas la première fois que les pratiques d'OpenAI sont scrutées de près par les autorités de protection des données. En janvier, ChatGPT faisait déjà l'objet d'une notification pour violation potentielle des normes de protection des données personnelles.
L'Engagement d'OpenAI envers les Utilisateurs
Suite à l'ordonnance provisoire d'interdiction du traitement de données par ChatGPT en Italie, OpenAI a réaffirmé son engagement à respecter le choix des utilisateurs quant à l'utilisation de leurs données personnelles, illustrant ainsi la sensibilité de l'entreprise aux exigences réglementaires européennes.
Conclusion :
Cette enquête sur Sora met en lumière les défis auxquels sont confrontés les développeurs d'IA dans leur course à l'innovation tout en respectant les cadres réglementaires stricts de la protection des données. L'issue de cette situation pourrait avoir des implications considérables non seulement pour OpenAI, mais aussi pour l'avenir de la création de contenu assistée par IA dans l'UE.
Restez au courant des développements les plus récents dans le domaine de la protection des données et de l'intelligence artificielle en nous suivant sur notre blog.
Nous vous tiendrons informés des avancées de cette affaire et de l'évolution des régulations autour des technologies émergentes.




