Skip to main content
Fonctionnalité · UGC · Placement produit

Générateur de vidéos de placement de produit IA
votre créateur, votre produit, à la caméra.

Verrouillez un créateur virtuel, déposez la photo de votre produit, écrivez un script — Shortlify produit une vidéo UGC face-cam où le créateur tient et présente littéralement votre produit. Gestes des mains, mouvements de tête, lipsync expressif, votre décor de studio. Le coût d'un seul UGC à 80 € vous achète ici 30+ variations.

Démo : créateur virtuel tenant et présentant un sérum, pipeline complet de placement produit UGC (première frame Nano Banana → mouvement corporel Veo par scène → lipsync Sync v3 → fondu enchaîné ffmpeg).
Ce que vous obtenez
  • Le créateur virtuel tient, montre et présente votre vrai produit à la caméra.
  • Acteur identité-verrouillée — même visage et même style sur chaque variation.
  • Décors de studio adaptés au produit (cosmétique → coiffeuse, tech → bureau, mode → miroir, fitness → salle).
  • Mouvements style HeyGen : gestes des mains, inclinaisons de tête, cheveux qui flottent, micro-expressions.
  • Sync v3 lipsync gère les créateurs photoréalistes ET stylisés (Pixar, anime, illustration).
  • Texture du produit propre — notre pipeline multi-référence avec rôles ne fait jamais déteindre le motif du produit sur les vêtements du créateur.
  • 30+ variations publicitaires en une heure vs 1 UGC humain par semaine. ~2 € par vidéo à grande échelle.
Comment ça marche
  1. 01
    Étape 1

    Verrouillez votre créateur + produit

    Choisissez un créateur depuis votre bibliothèque d'assets (ou uploadez une photo). Déposez l'image de votre produit dans le slot Produit. Optionnellement, ajoutez un lieu (votre studio) ou une tenue. Taggez-les avec @ dans le prompt si vous voulez contrôler où ils apparaissent.

  2. 02
    Étape 2

    Décrivez le studio + écrivez le script

    Dites à Shortlify à quoi ressemble le studio en texte libre — "studio cosy beauté, AcmeSerum sur la table, lumière chaude golden hour à travers la fenêtre". La première frame se compose automatiquement (Nano Banana edit, multi-ref). Une fois content, écrivez le script UGC — ou cliquez sur Générer et Claude l'écrit dans votre voix.

  3. 03
    Étape 3

    Rendu et publication

    Cliquez sur Générer. En coulisses : le directeur Claude découpe votre audio en 3-6 plans visuels (gestes, expressions, angles différents), Nano Banana régénère une frame par plan, Veo / Kling ajoute le mouvement corporel, Sync v3 repeint le lipsync, ffmpeg fait les transitions. Sortie : un MP4 9:16 de 30-60s prêt pour TikTok / Reels / Shorts.

Comparaison
CritèreShortlify Placement Produit IAEmbauche d'un créateur UGC réel
Temps par vidéo10–15 min de l'idée au MP45–7 jours (brief + tournage + montage)
Variations30+ en une heure, identité verrouillée1–2 par semaine max — look différent à chaque fois
Coût par vidéo~2–3 € à l'échelle50–250 € par clip (créateur UGC France/US)
Précision produitMulti-ref avec rôles — pas de bavure de textureDépend de la lumière + manipulation
ItérationModifier script → re-rendu en 5 minRe-tourner, re-monter, re-livrer
Cohérence marqueVerrouille créateur/voix/studio sur toutes les campagnesNouveau créateur à chaque fois = incohérent
Exemples de prompts qui fonctionnent
Marc présente AcmeSerum face-cam, énumère 3 raisons que ça marche, finit par "lien en bio".
Lina tient les nouvelles AcmeSneakers, parcourt les couleurs, "code SAVE20" CTA.
Sara déballe AcmePhone17, montre la bosse caméra, "c'est dingue" en réaction.
David dans sa salle de sport présente AcmeProteinBar en pleine séance, "5 minutes après mon run" en voix off.
@Marc explique la formule @AcmeMakeup à son @MarbellaStudio, tons chauds, sourire doux.
FAQ
Comment Shortlify fait-il tenir le produit avec précision au créateur ?
Nous passons l'image du produit comme référence "held_prop" à Nano Banana avec instruction explicite : "ceci est tenu comme un objet 3D dans la main du créateur — ne PAS faire déteindre sa texture sur les vêtements". Ce pipeline multi-ref avec rôles (sorti en avril 2026) élimine le bug de bavure de texture qui affecte les éditions multi-ref naïves où le motif du produit déteignait sur la chemise du créateur.
Puis-je garder LE MÊME créateur virtuel sur 100 vidéos produit ?
Oui — c'est la fonctionnalité centrale. Sauvez votre créateur dans la bibliothèque d'assets une fois. Chaque job qui le verrouille comme acteur le régénère avec son visage, sa coiffure et son look global préservés. Vous construisez une persona de créateur IA reconnaissable pour votre marque, comme un studio UGC réel contracte un visage récurrent.
Et le lipsync — le créateur a VRAIMENT l'air de dire mon script ?
Oui. Sync Lipsync v3 repeint la zone bouche de la vidéo issue du pré-pass body-motion. Donc les mains gesticulent et la tête s'incline (pré-pass Veo / Kling), mais le mouvement réel des lèvres est calé précisément sur votre audio TTS. Sync v3 gère aussi les visages cartoon et stylisés — pas seulement photoréalistes — donc un créateur IA style Pixar fonctionne aussi.
Le créateur peut-il porter ma tenue de marque ?
Oui — slottez la tenue dans le slot Outfit (ou taggez avec @ une tenue sauvegardée dans le prompt) et Nano Banana remplacera les vêtements du créateur par votre pièce de marque. Utile pour les marques mode/streetwear qui veulent que leur hoodie ou sneakers soient visibles sur le créateur.
En quoi est-ce différent de HeyGen, Arcads ou Synthesia ?
HeyGen + Synthesia utilisent des bibliothèques d'avatars pré-construits — vous ne pouvez pas apporter votre propre photo de créateur et obtenir des sorties identité-verrouillées. Arcads est plus proche (créateurs UGC personnalisés) mais utilise un décor de studio fixe et ne fait pas de placement produit en main. Shortlify vous laisse apporter N'IMPORTE QUELLE photo comme créateur ET n'importe quelle image de produit ET n'importe quelle référence de studio, le tout composé par Nano Banana avec contraintes de rôles.
TikTok / Meta vont-ils pénaliser ce contenu IA ?
Ils ont ajouté des labels "contenu IA" (auto-déclarés) mais ne dépriorisent pas l'IA dans le ranking du feed. Ce qui compte : la qualité du hook, le taux de complétion, les commentaires et les partages — aucun de ces signaux ne corrèle avec "IA vs tournage humain". Le label est une meta tag que les plateformes ajoutent automatiquement quand leur détecteur flag de l'IA ; il n'y a pas de pénalité algorithmique.
Puis-je utiliser le visage de quelqu'un d'autre comme créateur ?
Non — uniquement votre propre image ou un personnage IA totalement fictif. Utiliser le visage d'une personne publique réelle viole nos conditions et le droit à l'image dans la plupart des juridictions. Générez un créateur fictif (nous avons un flow "décris et crée") ou uploadez votre propre photo comme acteur.
À lire aussi

Votre première vidéo UGC IA de placement produit, rendue en 15 minutes.

Commencer à créer

300 crédits gratuits · Sans carte bancaire