Skip links

L’IA va-t-elle remplacer les DA en agence de com ?

Depuis quelques années, les médias, entreprises et chercheurs laissent entendre que le marché du travail sera d’ici quelques années impacté par l’automatisation des tâches et la généralisation des intelligences artificielles y compris en agence de com.

Pour rappel : une IA, n’est ni un être humain, ni un outil, c’est un entre deux. Face à un problème, elle va proposer des solutions – qui ne sont certes pas toutes bonnes – mais elle est force de proposition. C’est cela qui est nouveau. On ne peut pas demander à une IA de nous trouver un slogan ou encore un logo. Il y a toute la démarche humaine derrière.

Ces IA sont capables de créer !

Des photos, des illustrations et autres œuvres d’art au réalisme ahurissant, la peinture ou encore la 3D. en quelques clics ou plutôt grâce à quelques “prompts”, ces textes détaillant à l’IA quelle sorte d’image créer, tel un brief homme-machine, Il devient d’ailleurs très difficile de différencier le travail généré par une IA d’une véritable œuvre artistique.

Les illustrateurs et photographes doivent-ils craindre pour leurs métiers ? Idem pour les directeurs artistiques en agence ?

Ou au contraire, cela sera l’opportunité pour ces professionnels de tirer parti de la technologie pour s’affranchir des tâches répétitives liées au craft ? Réponse dans cet entretien passionnant où David Raichman directeur exécutif de la création social et digital d’Ogilvy Paris, street-photographe IA la nuit nous a livré un aperçu du potentiel de ces solutions d’arts génératif.

Depuis quand suivez-vous ces technologies ?

D.R. : Je fais de la photographie depuis une dizaine d’années, et l’art génératif m’intéresse particulièrement. Depuis 2-3 ans, j’exploite avec parcimonie les IA pour traiter une partie de mes photographies. Cela fait 1 mois et demi maintenant que l’ensemble de mes productions photographiques (personnelles, tout du moins) sont intégralement produites par des IA. J’y ai passé mes nuits !

Étant passionné de street-photographie, je me suis amusé à « faire le tour du monde » avec les IA, comme si je prenais seulement des photos de rue à New York, Jérusalem, Lhasa, Paris, Bombay… Le résultat était assez surprenant.

Ce qui est extrêmement intéressant, c’est que l’on peut exploiter les mêmes paramètres qu’un véritable photographe (angles à shooter, ouverture de l’objectif, vitesse d’obturation, type de pellicule, etc.)

En fait, nous avons beaucoup plus de contrôle que ce que l’on peut penser ! Après, c’est une approche personnelle. Chacun a sa méthode et sa manière de travailler. Chacun utilise ses codes.

 Les IA n’ont jamais été aussi accessibles qu’aujourd’hui : sur le web, sur Discord…. La révolution de l’art génératif semble aussi résider dans son accessibilité !

D.R. : Tout à fait. J’ai déjà pu créer des images sur mon téléphone dans la rue en me promenant, et même en attendant le métro. On peut exploiter les IA n’importe quand, n’importe où. Grâce à des IA complètement en open source (comme Stable Diffusion) les gens peuvent les installer sur leurs propres ordinateurs.

La seule barrière, c’est le prix. On peut dépenser beaucoup d’argent dans ces outils qui sont addictifs, je ne le cache pas. David concède avoir dépensé dans les 100 € pour ses derniers tests d’images, ce qui reste raisonnable pour de tels outils. Mais je pense qu’à terme, ceux-ci seront accessibles à des coûts nettement moins élevés.

Que peut-on faire et ne pas faire avec des programmes comme DALL·E ou Midjourney.

D.R. : Tout d’abord, il y a des contraintes éthiques. On ne peut pas créer des images qui pourraient inciter à la haine, des mots sont d’ailleurs déjà bannis dans les “prompts” de certaines IA.

La plateforme la plus ouverte est Stable Diffusion. DALL·E est assez difficile à dompter. Pendant le décès de la Reine d’Angleterre par exemple, il était impossible d’y rentrer le nom   « Reine Elisabeth II ». Alors que dans Midjourney cela ne posait aucun souci.

On peut également demander à une IA quel style nous intéresse en termes de rendu photographique, et donner des références d’artistes (Guillermo del Toro et HR Giger sont fréquemment utilisés). Cela peut poser problème d’un point de vue éthique également, mais je trouve que c’est intéressant de mélanger les styles pour créer ainsi son propre style.

Dans un second temps, il existe des limitations techniques. Par exemple, les IA ne sont pas compétentes aujourd’hui pour représenter des personnes qui s’embrassent et s’entrelacent. Ou bien même pour les visages, ils sont souvent déformés et pas cohérents. Pour cette raison, des utilisateurs vont utiliser plusieurs IA afin d’être plus justes et réalistes dans ces représentations. Le modèle GFP-GAN est par exemple fréquemment utilisé pour améliorer le rendu des visages d’une image générée par des solutions comme Midjourney ou DALL·E.

Vous pouvez également donner aux IA des “images de départ”, influençant ainsi leurs résultats c’est quelque chose que fait très bien Stable. Cela lui donne plus de liberté, mais aussi des contraintes.

À part cela, il n’y a pas vraiment de limites dans ce que l’on peut faire avec les IA aujourd’hui. Au contraire, il y a un champ des possibles énorme.

Avez-vous déjà réalisé des campagnes pour des annonceurs avec de telles IA ?

D.R. : Nous venons tout juste de lancer une campagne pour La Laitière. Pour contextualiser, il y a quelques jours, DALL·E et sa dernière fonctionnalité “Outpainting” (fonctionnalité qui étend une peinture au-delà de ses limites d’origine) a permis de dévoiler ce qui se cache hors du cadre du tableau de La Jeune fille à la perle de Vermeer. Nous avons fait de même, mais avec La Laitière.

Ce tableau de Vermeer a inspiré une saga publicitaire emblématique. C’est pourquoi, à l’ère du numérique et du web 3.0, nous avions voulu utiliser l’IA au service de cette idée, afin qu’elle puisse imaginer tout un environnement autour de l’œuvre originale. Une scène hors du temps signée “C’est si bon de prendre le temps”.

Ces IA se nourrissent de datas visuelles !

Leurs bases de données d’inspiration en somme. Peut-on imaginer qu’à terme vous puissiez fournir à l’IA tout l’historique artistique d’une marque, pour que les visuels générés respectent sa charte et son patrimoine graphique ?

D.R. : C’est déjà un peu le cas. Quand on donne à une IA le nom d’une marque connue, elle connaît les références et l’histoire de celle-ci. Par exemple, une IA a récemment réalisé avec brio une campagne pour Heinz un ketchup dominant dans l’inconscient collectif.

L’IA est capable de saisir le patrimoine visuel d’une marque, mais ce sont les prompts qui vont l’aider à donner le ton, à aller dans la bonne direction, et à expliquer ce que l’utilisateur veut ou pas. En ce qui concerne les mots, ces IA visuelles ne les écrivent pas très bien. En revanche, on peut très bien faire générer des alphabets ou une typographie spécifique pour une marque. C’est quelque chose qui pourrait être envisageable demain.

Le prompt est-il une nouvelle sorte de brief ?

D.R. : C’est à la fois une forme de brief, mais c’est aussi presque une forme d’art. J’ai déjà passé des prompts à 200 mots – ce qui est assez conséquent. Mais c’est une manière d’être hyper précis et influent sur la manière avec laquelle l’IA va générer quelque chose. Il y a un art du design du prompt.

Il y a un mois, des places de marché se sont mises en place, dans lesquelles des gens vendent leurs prompts pour avoir de belles images.

Le prompt est devenu le nerf de la guerre de ces créations. C’est avec le prompt que l’on crée.

Ces IA sont-elles une menace pour les métiers d’illustrateur, de photographe ou encore de directeur artistique ?

D.R. : Récemment, beaucoup de photographes ont posté des vidéos alarmistes, pensant que les robots allaient leur voler leur métier. C’est une innovation majeure face à laquelle, il va falloir réinventer notre métier, l’améliorer et surtout “embrasser” la technologie plutôt que d’aller dénoncer quelque chose dont le résultat est assez extraordinaire.   Je ne pense pas que ces IA iront jusqu’à détruire ces métiers. Disons que c’est une avancée qui peut les aider à aller plus loin. C’est un autre genre de création, comme l’image de synthèse a pu l’être à une époque.

Sur Photoshop, il y a déjà beaucoup de plugins qui sortent (faisant appel directement à des IA) qui aident les DA à obtenir des effets d’image supplémentaires ou à effectuer des tâches difficiles. Les IA, ce n’est pas nouveau dans ce milieu-là. Par exemple, les Neural Filters de Photoshop permettaient de changer un regard sur une photo, ajouter des profondeurs de champ, etc.

Ici ce qui est nouveau, c’est qu’on va pouvoir utiliser de l’outpainting, créer du hors-champs, garder un style donné. Il faut voir cette innovation comme une manière d’avoir des processus (ou des manières de produire) plus rapides au service de quelque chose qui est plus vaste. Ça peut être un vrai accélérateur dans la production. C’est comme cela que je vois les choses, plutôt qu’une menace.

Aujourd’hui, les marques réagissent souvent à l’actualité avec des memes. Je pense que demain, ces réactions se feront avec des images produites par des IA, de façon beaucoup plus créative.

Au-delà des réactions de marques. 

D.R. : Je pense que les IA ne servent pas juste à générer du beau, mais vont aussi permettre de faire émerger davantage de concept dans notre production d’images. Il y a eu un tsunami de générations d’images (sur Instagram), et c’est aussi intéressant de voir comment est-ce que l’on peut se distinguer de tout ça et avoir sa propre patte. Ça a été une de mes quêtes : comment réussir à avoir mon style là-dedans, et non pas le style de l’IA. Problème que l’on a pu retrouver sur Midjourney, puisque cette plateforme a un style très proéminent.

Il y a un véritable enjeu pour l’artiste ou le créateur de demain. C’est un secteur qui est en pleine explosion, chaque semaine il y a du nouveau. Personne ne peut savoir aujourd’hui exactement les impacts que cela va avoir. Il y aura sûrement un impact dans la mode mais aussi dans le domaine de la vidéo.

La réclame, Isadora L., 19 septembre 2022