Skip to main content

« Nous ne sommes pas là pour vous faire peur, mais pour vous montrer la réalité. » C’est par ces mots que Michael Goi (ASC, ISC), coprésident du comité IA de l’American Society of Cinematographers, a ouvert sa session très attendue à Camerimage. Accompagné de l’artiste et spécialiste Ellenor Argyropoulos, il a tenté de répondre à une question qui hante les plateaux : l’IA est-elle une menace existentielle ou un simple outil de plus, comme le fut jadis la tête fluide ou la grue télescopique ?

Pendant deux heures, le duo a démystifié le « monstre » en créant des images et des séquences vidéo en temps réel, transformant la salle de conférence en salle de pré-visualisation. Voici ce qu’il fallait retenir de cette plongée dans la « boîte noire ».

1. La philosophie : dompter la « Machine à Sous »
Michael Goi a d’emblée posé le cadre : l’IA générative fonctionne comme une « machine à sous » (slot machine). Vous tirez le levier (le « prompt »), et vous ne savez jamais exactement ce qui va sortir. Or, le métier de chef opérateur est l’antithèse du hasard : c’est l’art de la spécificité et de l’intention.

Le défi n’est donc pas de laisser l’IA créer le film à votre place, mais d’apprendre à contrôler ce chaos pour qu’il serve votre vision. Pour l’ASC, l’IA trouve aujourd’hui sa place idéale en pré-production : pour le storyboard, les moodboards, et la communication visuelle avec le réalisateur, remplaçant avantageusement les heures perdues à chercher des « photos de stock » mal adaptées sur Google.

2. L’image fixe (Midjourney) : votre vocabulaire est votre super-pouvoir
La démonstration a commencé sur Midjourney, l’outil de référence pour la génération d’images fixes. Ellenor Argyropoulos a montré que la qualité du résultat dépend directement de la précision technique de la demande.

C’est ici que le chef opérateur a un avantage décisif sur le scénariste ou le producteur. L’IA « comprend » (ou du moins simule) le langage optique.

Un amateur demandera : « Une pièce effrayante ».
Un chef op demandera : « High contrast, hard light, pools of darkness, 28mm lens, low angle, film noir style ».
Le résultat du second sera infiniment plus exploitable. Cependant, l’IA est littérale comme un enfant qui a tout lu mais n’est jamais sorti de chez lui.

Le piège du format par défaut, l’IA sort des images carrées. La commande essentielle est le ratio d’aspect (–ar 16:9 ou –ar 2.39:1) pour retrouver un cadrage cinéma.
Le contrôle du style les commandes comme –stylize (pour le degré de liberté artistique) ou –chaos (pour la variété des propositions) permettent d’affiner le tir.
L’itération si une image plaît par sa lumière mais pas par sa composition, la fonction « Vary Region » permet de redessiner uniquement une zone précise (changer une enseigne, modifier un visage) sans perdre l’atmosphère générale.

3. L’image en mouvement (Runway Gen-3) : du « Still » au « Rush »
Une fois l’image fixe validée, le duo a basculé sur Runway pour l’animer. Michael Goi insiste : il vaut mieux générer une image fixe parfaite d’abord, puis l’animer, plutôt que de demander à l’IA de générer une vidéo directement à partir de texte (où le contrôle est moindre).

L’outil « Motion Brush » a particulièrement impressionné l’auditoire. Il permet de « peindre » sur l’image les zones qui doivent bouger (par exemple, la fumée qui sort d’une bouche d’aération ou la pluie qui tombe) tout en gardant le reste statique. Des curseurs de caméra (Pan, Tilt, Zoom) permettent ensuite de simuler un mouvement d’appareil.

Le résultat ? Un clip de 5 secondes, imparfait (avec ce fameux scintillement ou shimmer typique de l’IA actuelle où les visages en arrière-plan se déforment), mais suffisant pour un animatique ou un pitch deck. En 5 minutes, une idée abstraite est devenue un plan en mouvement.

4. La limite infranchissable : l’intention humaine
Malgré la rapidité des outils, Michael Goi a tenu à rassurer l’assemblée sur la notion d’âme (soul).

« L’IA a ingéré des millions d’images, mais elle n’a pas vécu, » a-t-il rappelé. « Elle n’a jamais eu le cœur brisé, elle n’a jamais senti la pluie froide. Elle ne connaît que la donnée de la pluie. »

C’est cette absence d’expérience vécue qui crée l’effet « Vallée de l’étrange » (Uncanny Valley). L’IA prédit le pixel suivant, mais elle ne ressent pas la scène. Le rôle du chef opérateur évolue donc vers celui de curateur et de pilote. C’est l’acte de choisir parmi les variations proposées qui constitue désormais l’acte artistique initial.

5. L’aspect légal : zone grise
Une question cruciale du public a porté sur le droit d’auteur. La position actuelle (aux USA du moins) est stricte : une œuvre 100% générée par IA ne peut pas être protégée par le copyright.

Le conseil de l’ASC est donc clair : utilisez ces outils pour la préparation, l’inspiration et les documents internes. Pour une diffusion finale en salle, la prudence est de mise tant que le cadre juridique n’est pas stabilisé, à moins d’un travail humain substantiel de retouche et de composition par-dessus la base IA.

Alors, monter dans le train ou rester sur les rails ?
« Le train a quitté la gare, » a conclu Michael Goi. « Nous avons le choix : rester sur les rails et nous faire écraser, ou apprendre à conduire le train. »

Cette session a démontré que l’IA, loin de rendre l’expertise technique obsolète, la valorise différemment. Plus votre culture visuelle et technique est vaste, mieux vous saurez « parler » à la machine pour en tirer des images qui ont du sens.

Les commandes à retenir pour vos premiers tests (sur Midjourney, inscription gratuite pour explorer) :

  • prompter dans le champ « create »
  • donnez vos préférences (ratio de format, styles) à droite de ce champ
  • Cliquez sur la flèche pour lancer la génération de 4 images
  • Une image vous plaît ? Cliquez dessus et explorez les options à droite
  • utilisez la commande –no suivie d’un élément que vous ne désirez pas (par ex –no tree pour ne pas voir d’arbres)