Le système de création d’images artistiques par l'intelligence artificielle d’OpenAI est proposé à tous dans sa version 2. Un service ludique à utiliser avec modération dans le choix des thèmes.

Cela vous intéressera aussi

[EN VIDÉO] L'Intelligence Artificielle dans l'espace Les prochains grands projets astronomiques génèreront des quantités énormes de données que l'humain aura du mal à traiter, c'est là que les algorithmes entreront en jeux !

Il suffit de se rendre sur différents comptes Twitter dédiés aux créations de Dall-E pour passer un bon moment de rigolade. Dall-E, c'est un service de création d'images à partir de mots clés. Il donne des idées saugrenues aux 1,5 million de personnes qui l'utilisent tous les jours. En tout, ce sont plus de 2 millions d'images autant artistiques qu'absurdes que l'Intelligence artificielle de Dall-E parvient à créer au quotidien. Un engouement qui a mené OpenAI, le créateur de Dall-E, à créer des listes d'attente pour pouvoir utiliser Dall-E. Pour participer à la création d'œuvres visuelles farfelues, il fallait donc patienter jusqu'à maintenant. Car aujourd'hui, c'est terminé, et ce service ludique débarque dans sa version 2 et s'ouvre désormais à tous les utilisateurs. Le service limite cependant l'utilisation de l'IA à 50 créations.

De nombreux comptes Twitter publient les créations les plus farfelues de Dall-E.© Twitter

Modération intégrée

Pour s'amuser avec Dall-E, il suffit de créer un compte à partir d'une adresse e-mail valide. Ensuite, il reste à faire preuve d'imagination et de saisir en anglais uniquement, une phrase expliquant ce que l'on souhaite faire apparaitre à l'image. Par exemple, dans notre illustration, la demande était de créer une photo d'un astronauteastronaute montant un cheval.

Évidemment, en ouvrant son service à tout le monde, il fallait mettre des freins pour éviter des abus. C'est pourquoi OpenAI souligne que son Intelligence artificielle reste contrôlée et qu'il y a des bridages qui empêchent d'abuser des capacités de Dall-E. Il n'est pas possible, par exemple, d'afficher des contenus à caractère pornographiques ou violents, ni même d'exploiter des images de personnalités publiques. Une modération que d'autres systèmes de création automatique d'art n'ont pas. C'est par exemple le cas du service Stable DiffusionDiffusion qui fait l'objet de plaintes en raison de ses détournements.