← Retour au Colorizer

Guide de la colorisation en masse de chapitres de webtoons

Pourquoi nous avons construit un pipeline de colorisation en masse, les défis d’ingénierie rencontrés et ce que la colorisation de chapitres à l’échelle de la production exige réellement.

Publié par Watashi Games · Mars 2026


Pourquoi la colorisation en masse change tout pour les éditeurs

Lorsque nous avons commencé à coloriser des chapitres de webtoons pour la publication, la première leçon apprise fut que les outils de colorisation image par image sont essentiellement inutiles pour le travail de production. Un chapitre de webtoon typique compte 40 à 80 pages. Les coloriser une par une — même avec un outil IA rapide — produit des couleurs incohérentes d’une page à l’autre. Les cheveux d’un personnage peuvent être auburn à la page 12 et châtain à la page 13. Les arrière-plans changent de teinte entre les cases. Le résultat ressemble à un chapitre colorisé par un artiste différent à chaque page.

La colorisation en masse n’est pas qu’une question de rapidité. C’est traiter un chapitre entier comme une seule unité de travail, de la même façon qu’un artiste le ferait. Quand un coloriste humain travaille sur un chapitre, il établit une palette dès la première page et la maintient. Il voit les transitions de scène et préserve l’ambiance. Il n’oublie pas la couleur des murs trois pages plus tôt. Tout outil de colorisation de niveau production doit reproduire cette continuité, et cela n’est possible que lorsque l’outil traite le chapitre complet d’un seul coup.

C’est la raison fondamentale pour laquelle nous avons conçu Watashi Colorizer comme un pipeline de masse dès le départ. Pas comme un outil image par image avec un mode batch ajouté après coup, mais comme un système conçu de A à Z pour comprendre les chapitres comme des séquences artistiques connectées.

Le défi d’ingénierie : la cohérence des couleurs entre les pages

Le problème le plus difficile de la colorisation en masse n’est pas la vitesse de traitement — c’est la cohérence. Les modèles IA traitent les images par lots de taille fixe, et deux lots quelconques produiront des interprétations de couleur légèrement différentes du même contenu. Si une scène commence en bas de la page 30 et continue en haut de la page 31, et que ces deux pages se retrouvent dans des lots différents, vous obtenez une rupture de couleur visible en plein milieu de l’action.

Notre solution a été le découpage virtuel des images. Au lieu d’envoyer des pages entières à l’IA, nous analysons chaque page pour détecter les séparateurs de cases noirs — les bandes horizontales entièrement noires qui séparent les scènes au format webtoon. Nous découpons les pages en bandes artistiques individuelles à ces séparateurs, puis regroupons les bandes par continuité de scène à travers les limites de pages. Le bas de la page 30 et le haut de la page 31 se retrouvent dans le même lot IA, permettant au modèle de les voir et les coloriser ensemble.

Cela a nécessité des mois de réglages. La détection des séparateurs doit distinguer les séparateurs entièrement noirs du contenu artistique sombre comme les ombres, les cheveux et les scènes de nuit. Nous analysons chaque ligne de chaque image, classifiant les pixels avec un seuil RGB de 15 — seul le quasi-noir pur est comptabilisé. Tout ce qui a une texture visible, même des valeurs de gris subtiles de 10 à 30 par canal, est reconnu comme de l’art et laissé intact.

Des images individuelles aux chapitres complets : la construction du pipeline

Le pipeline complet fonctionne en quatre étapes. Premièrement, chaque image téléversée est analysée et découpée en images virtuelles aux vides noirs détectés. Deuxièmement, ces images virtuelles sont regroupées en lots selon la continuité des scènes, en respectant un rapport d’aspect maximal pour que l’IA dispose d’une résolution suffisante. Troisièmement, chaque lot est assemblé en une seule image haute, envoyé à l’IA, et le résultat colorisé est redécoupé. Quatrièmement, toutes les bandes colorisées sont recomposées sur leur canevas d’origine aux dimensions exactes.

L’étape de regroupement en lots est celle où réside la plus grande complexité. Nous évaluons chaque frontière entre images virtuelles adjacentes en comptant les lignes entièrement noires — pas en moyennant l’obscurité des pixels, mais en comptant les lignes où 95 % ou plus des pixels sont noir pur. Si une frontière obtient un score élevé, c’est un bon point de séparation des lots. Si le score est bas, de l’art traverse la frontière et nous gardons ces images ensemble. Ce système de scoring par lignes détecte des détails que la moyenne de pixels raterait, comme une seule ligne de dialogue sur un fond noir.

Les exigences de production qui ont façonné notre approche

Plusieurs exigences de production ont guidé nos décisions architecturales. Le résultat doit avoir exactement les dimensions originales — les éditeurs ont besoin de fichiers qui s’insèrent dans les flux existants en remplacement direct. Les couleurs des personnages doivent être contrôlables au niveau hexadécimal, car les éditeurs ont des chartes graphiques établies. L’outil doit gérer les formats manga, manhwa, manhua et webtoon sans configuration manuelle, car une équipe de production ne devrait pas avoir à ajuster les paramètres pour chaque série.

Nous avons aussi appris que la compression compte à grande échelle. Une seule page PNG de 2000×8000 pixels peut peser 10 Mo ou plus. Multipliez par 60 pages et vous faites transiter 600 Mo à travers le pipeline pour un seul chapitre. La compression automatique à l’import — réencodage des PNG surdimensionnés en JPEG q92 sans changer les dimensions — réduit cela à moins de 100 Mo tout en préservant chaque pixel de qualité visible.

Ce ne sont pas des fonctionnalités auxquelles on pense en colorisant une seule image de test. Ce sont les exigences qui émergent après votre centième chapitre, quand l’efficacité du pipeline et la cohérence des résultats font la différence entre un outil utilisable et un jouet.

Ce que nous avons appris en publiant des chapitres colorisés

Après avoir colorisé des milliers de pages sur des dizaines de séries, la leçon la plus importante est que la cohérence bat la qualité maximale. Un chapitre où chaque page est bonne est bien plus publiable qu’un chapitre où cinq pages sont époustouflantes et le reste visiblement différent. Les palettes de personnages, l’apprentissage contextuel et le regroupement par scène servent tous ce même objectif : faire en sorte que le chapitre entier semble colorisé par un seul artiste.

La deuxième leçon est que l’édition n’est pas optionnelle. Peu importe la qualité de l’IA, certaines cases nécessitent un ajustement manuel. La couleur des yeux d’un personnage peut dériver. L’ambiance d’un arrière-plan peut ne pas correspondre au scénario. Notre mode édition permet de donner des instructions en langage naturel pour corriger des cases spécifiques sans retraiter le chapitre entier, car en production, la capacité à faire des corrections ciblées est tout aussi importante que la qualité de la colorisation initiale.

Pour un guide détaillé étape par étape du processus de colorisation, lisez notre guide complet sur watashicolorizer.com.

Lire le guide complet →