BusinessLes dernières actualités de la techMarketing & Communication

Le fantôme de la cassette plane encore

Les livraisons de programmes TV s’affranchissent des cassettes. Leur disparition marquera la conclusion d’un processus de dématérialisation débuté il y a plusieurs années avec les films publicitaires TV. Alors que nous approchons de cette conclusion, il est utile d’apprécier les progrès devant encore être réalisés.

1

La publicité TV, cas précurseur en France

Les premières livraisons «fichier» commerciales de campagnes publicitaires TV ont eu lieu à l’automne 2009. 

Connaissez vous la DATAROOM de FRENCHWEB.FR notre base de données de startups et sociétés innovantes françaises: informations clés, fonds levées, chiffres d'affaires, organigramme, axes de développement. Accédez aux informations que nous avons collecté concernant plus de 1000 sociétés

La publicité TV a partout été le premier cas de dématérialisation. Au-delà du faible poids des fichiers concernés, une raison à cette primauté est que les films publicitaires sont livrés à l’identique simultanément à plusieurs destinataires.

Cela motivait naturellement une approche industrialisée, dans un marché représentant environ 100 000 actes de livraison annuels.

Elle connaissait également des délais de livraison avant diffusion longs, de J-5 à J-10. Réduire ces délais à une journée voire quelques heures était impensable avec des cassettes.

La livraison d’une campagne ne se résume pas à son déplacement d’un point A à un point B. À chaque extrémité, une diversité d’acteurs sont impliqués: agences créatives, agences média, producteurs et prestataires, régies publicitaires, chaînes, autorité de régulation… La réussite de la dématérialisation nécessitait donc également des interfaces pour les validations et le suivi. La seule question de l’objet fichier mimétique de l’objet cassette était loin d’épuiser le sujet.

Le contexte technologique à l’époque

La production et la diffusion étaient déjà file-based. Cependant l’interopérabilité au sein des chaînes était encore limitée. L’adoption universelle de MXF ne faisait que débuter. 

Chaque chaîne avait son choix d’essence et de codec. La publicité TV ne connaissait que des masters SD. La conversion intégrale de la pub TV à la HD ne se produira qu’à partir de 2012.

Livrer à chaque destination des fichiers directement utilisables, sans transformation ni risque, était donc un challenge industriel appelant une réponse spécialisée, nouvelle dans le paysage de la prestation, en matière de technologies de transcodage, de QC, de réseaux dédiés et bien sûr d’expérience utilisateur.

Les raisons du succès

Si nous évoquons le cas aujourd’hui abouti de la publicité, c’est parce qu’il était précurseur et qu’il nous éclaire sur les bénéfices d’une dématérialisation réussie.

Les coûts de livraison ont ainsi sensiblement diminué par rapport à ce qu’ils étaient avec les cassettes. Cette baisse peut être imputée autant à l’industrialisation du processus qu’à la nouvelle concurrence entre les acteurs spécialisés.

Les délais de livraison ont été réduits jusqu’à être quasiment nuls, dégageant du temps en amont pour les finitions créatives et permettant en aval une flexibilité accrue de la planification des campagnes ou de la commercialisation de l’espace.

Toutes les parties prenantes partagent l’information de suivi, grâce aux plates-formes de livraison et à l’intégration de l’identification unique et des métadonnées PubID-arpp.tv.

Les fichiers livrés sont 100% fiables, utilisables sans post-traitement et leur acheminement 100% sûr et dédié.

Brève histoire de la dématérialisation des programmes longs

Fin 2012, Canal + était la première à accepter la réception fichiers pour les programmes longs. Cela a largement inspiré les travaux qui ont amené plusieurs autres grandes chaînes à emboîter le pas à partir de 2015. À ce moment-là, la SD est éteinte en production. Les essences HD sont concentrées sur peu de codecs. 

Apple ProRes est répandu en production, mais son caractère non-standard l’exclut pour la diffusion et la livraison. Xdcam (de la famille mpeg2), bienque long gop, a démontré sa résilience au transcodage, un facteur-clé pour les livrables TV. L’évolution vers une famille de codecs plus récents devra donc attendre le développement de l’UHD TV.

MXF est largement adopté, bien que réduit en pratique à sa plus simple expression: Op1a.

La diversité des codecs et des formats est donc moindre qu’auparavant. Les normes qui sous-tendent la recommandation technique rt040 sont adoptées. La rt040 sera formellement adoptée pour les livraisons TV françaises en 2016.

La recommandation spécifie des paramètres communs aux chaînes TV signataires, complétés de variations propres à chaque chaîne. Ces variations concernent notamment le time code (origine et cohérence entre pistes) et l’organisation des pistes audio.

La connectivité Internet très haut débit s’est répandue

Les écosystèmes des programmes longs se caractérisent par une grande diversité d’entreprises et d’activités : production interne, production de flux, ayants droit et catalogues, production de stock de fiction, d’animation, de documentaire, de captations, etc.

Sur ces bases, l’industrie a donc privilégié une approche ouverte, reposant sur la notion que tout professionnel «à l’état de l’art» serait capable de livrer des fichiers répondant aux exigences générales et particulières.

Là où le bât blesse

Les longues années de vie de la cassette et du (HD) SDI nous avaient accoutumés à la stabilité et reproductibilité des process. Or, le niveau de rigueur indispensable aux fichiers broadcast, la complexité des normes, le paysage professionnel fragmenté, la qualité et la stabilité variables des outils utilisés dans tous ces contextes, aboutissent à une réalité différente.

Résultat et qualité sont insuffisamment garantis. En caricaturant, c’est un peu comme si dans un «monde cassette», chacun avait fabriqué sa propre cassette et laissait à son destinataire ultime le soin de vérifier son bon fonctionnement.

Alors que les prix des livrables sont approximativement équivalents à ce qu’ils étaient en cassette, les coûts de vérification de la conformité technique des fichiers sont plus élevés et pèsent sur le bout de la chaîne. Des interactions manuelles constantes autour de la qualification et la requalification des fournisseurs de fichiers sont toujours nécessaires.

Les diffuseurs et grands ayants droit supportent le coût élevé des solutions d’accélération de transfert ou de transport privé. Celles-ci constituent un coût supplémentaire sans réelle valeur ajoutée.

Les métadonnées obligatoires de la rt040 sont limitées à ce qui existait sur la feuille de bande physique, sans rapport de vérification. Cela contribue au maintien des silos entre le monde technique et le monde éditorial. La réconciliation des fichiers reçus avec les programmes attendus ne peut être automatisée.

Si le monde TV a su se concerter pour aboutir à la rt040, il n’en a pas été de même pour le monde de la vidéo à la demande. Or, l’économie de la VàD est difficile, elle a cruellement besoin de gains d’efficacité. Les éditeurs doivent traiter manuellement une variété de formats, de qualités et de présentations pour leurs approvisionnements en contenus.

Rétrospectivement on peut dire que nous ne sommes pas dans un monde authentiquement «fichier», mais dans un monde de fichiers imitant les cassettes. Les grandes promesses du tout-fichier : interopérabilité, gains économiques, de temps, d’efficacité et de sécurité, ne sont pas encore réalisées.

Pourtant, les besoins et la pression sur la logistique ne peuvent qu’augmenter. Avec les nouveaux usages, les canaux de diffusion continuent de se multiplier et avec eux l’hétérogénéité des besoins en livrables et la diversité des fournisseurs de contenus. Il y a toujours plus de contenus, plus lourds, à aiguiller plus vite et vers plus de destinations parfois peu rémunératrices.

Manifeste pour une nouvelle logistique fichier

Nous sommes au service des contenus. Que nous nous définissions comme logisticiens ou traditionnellement comme labos, nous ne devons pas oublier les vrais enjeux des écosystèmes que nous servons. Ils sont notre raison d’être.

Ces enjeux sont la création des contenus et leur bonne communication au public. Notre mission est de fluidifier la circulation des contenus. Sur le terrain, cela doit se traduire par des livraisons et des approvisionnements moins onéreux, plus rapides, plus sûrs, plus efficaces car plus interopérables.

Respecter la pesanteur des contenus

Un fichier ne se déplace pas mais se copie. Sa sécurité et son intégrité ne sont pas la conséquence de sa centralisation sur site. Elles nécessitent la traçabilité de tous les actes concernant le programme représentés par le(s) fichier(s).

La centralisation sur site des fichiers et de leurs moyens de traitement (MAM, moteurs de workflow, transcodage, contrôle qualité, etc.) perpétue le modèle traditionnel du labo mais ne permet pas de répondre aux contraintes de la pesanteur des contenus (content gravity). Elle renchérit la sécurité et rend onéreuse toute évolution. Elle reproduit le paradigme du stockage local de la cassette.

Elle entretient les goulots d’étranglement pour les transferts de fichiers. Au contraire, les fichiers doivent être soumis au minimum de mouvements et de transferts. Les traitements doivent être apportés aux fichiers et non l’inverse, de la manière la plus distributive possible et indépendamment de la localisation de l’opérateur.

L’architecture mise en place pour Nomalab rend vivante cette vision. Elle est intégralement distribuée, élastique et extensible. Toutes les fonctionnalités sont traitées par des composants indépendants. Ils sont émetteurs et récepteurs d’événements qui permettent l’exécution et l’enchaînement de tous les scénarios de manière totalement reproductible. Cette reproductibilité est indispensable.

Embrasser le Web et le cloud

Ce type d’approche repose sur les moyens et concepts du web et du cloud. Rappelons que, contrairement aux idées reçues, l’approche cloud permet de résoudre de nombreuses questions de sécurité. Une architecture distribuée est, par conception, plus résiliente qu’un data center privé ou des moyens de calcul et stockage accumulés sur site.

De plus, une proportion grandissante de la diffusion – en particulier OTT – se situe dans un cloud ou un autre. Le déplacement des usages audio visuels vers le cloud et le web concerne tous les acteurs de la diffusion et de la monétisation des contenus. Il doit être non pas subi, mais embrassé par tous, prestataires compris.

Une bonne illustration de la richesse de cette confrontation est le principe du «labo dans un navigateur» mis en œuvre par Nomalab. Toutes les fonctions liées à la gestion des stocks de masters et du matériel, le pilotage de la génération des livrables, leur vérification, leur livraison-réception et leur validation sont rassemblées dans une expérience utilisateur unique et une vision à 360 ° centrée sur les contenus eux-mêmes. 

Aucune installation logicielle locale n’est nécessaire. Une équipe support expérimentée accompagne les utilisateurs, en temps réel si nécessaire. Cette vision transcende également le débat sans fin sur la conservation : œuvres et titres sont gérés dans la perspective de leur exploitabilité continue.

Responsable envers tous

Ce que nous décrivons ici, c’est le logisticien non pas comme un prestataire technique ne rendant compte qu’à ses clients directs, mais comme une plate-forme capable de définir ses responsabilités à l’égard de toutes les parties concernées.

Les méthodes doivent être stables et documentées. La qualité et la conformité de tous les intrants et sortants doivent être documentées et suivies. La classification établie par l’EBU fournit un référentiel, insuffisamment exploité par les vendeurs d’outils de vérification.

Interopérabilité

Enfin, il est impératif de travailler à l’amélioration de l’interopérabilité par l’enrichissement des métadonnées. Dans le monde divers de la production et de la distribution de programmes, les bonnes pratiques autour de l’identification et des métadonnées éditoriales ne peuvent émerger spontanément.

2

 

L'article a intialement été publié dans le magazine MEDIAKWEST #21 AVRIL MAI 2017

 

Sébastien et Jean ont fondé Nomalab en 2016, dans le but de faire se rencontrer les technologies web, cloud et broadcast au service des contenus audiovisuels. Les premiers services de Nomalab sont entrés en production début 2017.

 

jean-gaillardJean Gaillard a notamment été à l’origine, avec IMD France, du lancement du passage à la livraison fichier de la publicité TV et des vidéomusiques.

 

 

sebastien-cremeSébastien Crème a participé à la transition digitale de grands groupes et à la mise en œuvre d’architectures de production massivement scalables, comme celle de LinkedIn.

 

CATHAY INNOVATION EDUCAPITAL XANGE
A Global Venture Capital Firm Connecting Innovators Everywhere The largest European Edtech & Future of Work VC Today's disruption, Tomorrow's daily life
DECOUVRIR DECOUVRIR DECOUVRIR
Connaissez vous la DATAROOM de FRENCHWEB.FR notre base de données de startups et sociétés innovantes françaises: informations clés, fonds levées, chiffres d'affaires, organigramme, axes de développement. Accédez aux informations que nous avons collecté concernant plus de 2000 sociétés
Bouton retour en haut de la page
Share This