Des accusations d’espionnage industriel et de vol de données pèsent sur le géant américain Google, qui est soupçonné d’avoir utilisé ChatGPT pour développer son propre chatbot.
Google est au cœur d’une controverse concernant l’utilisation de ChatGPT pour entraîner son propre agent conversationnel Bard. Selon des sources, Google aurait copié des informations provenant de ShareGPT, qui recense des conversations enregistrées par ChatGPT, afin de s’inspirer du logiciel concurrent. Toutefois, la firme d’Alphabet nie ces allégations. « Bard n’est pas entraîné sur des données provenant de ShareGPT ou de ChatGPT », a répondu un porte-parole de la société.
La protection des données, un enjeu en matière d’IA
Le projet Gemini, qui rassemble Google Brain et DeepMind, aurait été à l’origine de cette utilisation de ChatGPT. Les deux entités auraient travaillé ensemble pour développer leur propre chatbot, en utilisant des informations provenant de leur concurrent Open IA.
Un ancien ingénieur en IA de Google a averti la société des risques encourus en cas de violations des conditions d’utilisation de ChatGPT, ainsi que des potentielles réponses que Bard générerait, trop similaires à celle de ChatGPT.
Ces accusations d’espionnage industriel et de vol de données pourraient nuire à la réputation de Google, qui est déjà sous le feu des critiques pour ses pratiques commerciales. En réfutant ces accusations, la société n’a cependant pas répondu à la question de ce qui avait pu être fait dans le passé. Il reste à savoir si les données volées ont été conservées.
Cette affaire montre l’importance de la sécurité des données dans le développement des intelligences artificielles et soulève des questions sur les pratiques éthiques de l’industrie de la tech. Les entreprises doivent être transparentes quant à leur utilisation des données et prendre des mesures pour protéger la propriété intellectuelle des concurrents.