Cinematographie.info: Les cercles de confusion - Cinematographie.info

Aller au contenu

Page 1 sur 1
  • Vous ne pouvez pas créer un sujet
  • Vous ne pouvez pas répondre
  • Partager

Les cercles de confusion Tests, conclusions et opinions Noter : -----

#1 L'utilisateur est hors-ligne   Nicolas Eveilleau 

  • Voir la galerie
  • Groupe : Membre Professionnel
  • Messages : 321
  • Inscrit(e) : 20 mai 09
  • Lieu :Asnières-sur-Seine
  • Profession :Assistant Opérateur

Posté 27 mars 2012 - 01:03

Bonjour à tous,

Etant donné que j'ai été amené à faire des calculs de profondeur de champ pour mon appli, j'ai dû me pencher assez rapidement sur le point du cercle de confusion, qui est l'une des valeurs qui influent sur la profondeur. Et honnêtement, je suis un peu tombé sur la boîte de Pandore, je me suis rendu compte que le sujet était assez peu traité en cinéma (et quasiment pas en cinéma numérique), que tout le monde avait sont avis sur la question et qu'il n'y avait pas deux sources qui donnaient les mêmes valeurs, dont certaines me semblaient foncièrement incohérentes (sans vouloir balancer, j'ai du mal à voir pourquoi pCam utilise un cercle de confusion plus petite pour la RED en 2K que pour la RED en 4K alors que le capteur est le même, mais j'y reviendrai)

Et donc comme toujours quand on ne sait pas sur quel pied danser, la meilleure solution reste le test !

J'ai donc passé deux après-midi chez Transpacam pour mettre quelques caméras sur le banc d'essai. Je remercie d'ailleurs chaudement toute l'équipe de Transpacam qui m'a accueilli, et principalement Didier de la vidéo et Gérard des optiques que j'ai pas mal sollicités.


*****


Mais revenons à la base avec un rapide théorique sur le cercle de confusion (je préviens tout de suite les puristes : c'est un résumé, je passe évidemment sur plein de nuances) :

Pour résumer grossièrement et pratiquement, la taille du cercle de confusion est la taille du plus petit détail qu'un système optique+capteur pourra reproduire. Si un détail est plus petit que le cercle de confusion, le système optique+capteur ne sera pas capable de le différencier de ce qui l'entoure. (Attention ! quand je parle de "taille du détail", je parle bien sûr de cette taille au niveau du capteur, de l'image formée, pas de la scène qu'on est en train de filmer)
Si cela influe sur la profondeur de champ, c'est simplement parce que si un détail plus petit que le cercle de confusion est flou, on ne s'en rendra pas compte et l'image apparaitra donc nette.

On pourrait aussi dire que le cercle de confusion est une façon d'exprimer le pouvoir séparateur d'un système optique+capteur. Plus le cercle de confusion est petit, plus le système a un pouvoir séparateur important et est donc capable de voir les détails les plus fins (j'évite de parler de résolution, puisque la résolution est le nombre de pixels. On peut avoir un très grand nombre de pixels sur un capteur très grand sans être pour autant capable de voir plus de détails, cf. l'imposture marketing de RED et de son EPIC 5K, mais encore une fois, j'y reviendrai)

En général, les optiques ont un pouvoir séparateur largement supérieur aux capteurs des caméras. Le facteur limitatif du système est donc le capteur, on considèrera donc que le cercle de confusion du système est le même que le cercle de confusion de la caméra (ce qui n'est pas nécessairement le cas avec des optiques fatiguées ou des caméras ultra définies, dont la F65 est à l'heure actuelle le seul exemple)

En pellicule, globalement, si un détail était plus petit que la taille du grain d'argent, il était différentiable de ce qui l'entourait (je dis globalement, puisque la structure aléatoire d'une pellicule peut jouer)

Et les puristes me pardonneront aussi de ne pas mentionner Nyquist, qui est important mais pas foncièrement nécessaire pour comprendre la suite.


*****

Bon, ça c'était le petit rappel sur le cercle de confusion, passons maintenant à la façon de le déterminer. Pour cela, je vous renvoie à la méthode de Juan Aguirre sur le site de l'AOA. Il utilise une mire Century, mais globalement, l'important c'est de pouvoir définir le nombre de lignes par mm que la caméra est capable de voir. Pour mes essais, j'ai utilisé celle-ci :

Image attachée

Pour résumer, on se place à une certaine distance de la mire, on lit la mire la plus détaillée qu'on arrive à voir, on regarde à combien de lignes par mm elle correspond, on fait l'inverse et hop, on a la taille du cercle de confusion du système.

Concernant précisément mes essais donc, j'ai (pour l'instant) testé 6 caméras :
- l'ALEXA PLUS avec enregistrement en ProRes 4444 sur SxS;
- la RED ONE MX avec enregistrement sur disque dur avec différents réglages;
- la RED EPIC avec enregistrement sur SSD avec différents réglages;
- la Sony F3 avec enregistrement en interne sur SxS et sur un PIX 240 en ProRes 422HQ;
- la Sony F35 avec enregistrement sur un PIX 240 en ProRes 422HQ;
- le Canon 7D (avec monture PL) avec enregistrement interne en Canon MOV.

Toutes ces caméras ont été testées avec un 50mm Cooke 5i. J'ai choisi cette focale pour deux raisons principales : sa très grande qualité optique, puisque la MTF de l'objectif ne devait pas réduire le cercle de confusion, et le fait que Cooke communique sur le centre optique, "Entrance Pupil" dans le texte, ce qui est très important puisque la distance entre la mire et la caméra doit être mesurée à partir du centre optique, et non pas du plan-film.

J'ai ensuite récupéré les rushs que j'ai pu analysé en les grossissant sur Photoshop (sauf pour les RED où j'ai dû utiliser REDCINE. Comme envoyer tous les rushs serait trop lourd, je vous fais des captures d'écrans des zones intéressantes.

Je vous préviens tout de suite, les résultats sont beaucoup plus compliqués à analyser que je le pensais. Mais tout de suite les images, je vous donnerai mon avis après.



L'ALEXA PLUS (capteur 2K, filtre de Bayer, enregistrement en ProRes 4444)

200%
Image attachée

400%
Image attachée


RED ONE MX (capteur 4K, filtre de Bayer, enregistrement en 4K HD REDCODE 42)

100%
Image attachée

200%
Image attachée


RED ONE MX en 2K (zoom dans le capteur)

200%
Image attachée


RED EPIC (capteur 5K, filtre de Bayer, enregistrement en 5K 3:1)

100%
Image attachée

200%
Image attachée


SONY F35 (capteur 5K recalculé en HD, filtre RGB Stripe, enregistrement sur PIX 240 en ProRes 422HQ)

200%
Image attachée

400%
Image attachée


SONY F3 (capteur HD, filtre de Bayer, enregistrement sur PIX 240 en ProRes 422HQ)

200%
Image attachée

400%
Image attachée

Pour la curiosité, je vous montre aussi ce que ça donne en ProRes Proxy

400%
Image attachée


Et l'outsider absolu :
Canon 7D (capteur très haute résolution sous-échantilloné en HD, filtre de Bayer, enregistrement en Canon MOV MPEG4)

200%
Image attachée

400%
Image attachée
Image attachée


*****

Concrètement, ce sont des mires, c'est purement scientifique et objectif, donc chacun peut se faire son avis. Je vous laisse tout de même mes quelques impressions :

Il y a déjà deux choses qui sautent aux yeux, et ce pour toutes les caméras : des problèmes de couleurs, dû à la filtration du capteur et du recalcul pour chaque pixel à partir de plusieurs pixels ayant chacun une info couleur, et le problème d'aliasing, qui recréé des lignes grosses et inexistantes à partir de lignes très fines. C'est là où Nyquist a son importance.

Sur ce point, la F35 fait un peu bande à part, puisque son capteur n'a pas un filtre de Bayer mais un filtre RGB Stripe. Même si le problème existe bel et bien, il est nettement plus doux.
Et le pire exemple est bien sûr le Canon 7D, puisqu’en plus d'avoir un sous-échantillonnage couleur dû au filtre de Bayer, il y a un sous-échantillonnage au sein du capteur qui empire très violemment le phénomène d'aliasing.

Dernier point général : la mire la plus fine est finalement assez difficile à déterminer. En effet, pour certaines mires très fines, il est très clair que les lignes qu'on voit ne sont pas les lignes réelles et est justement le fruit de cette aliasing. Faut-il alors considérer que le cercle de confusion doit être déterminé en fonction de la mire où on voit les mires réelles, ou les mires où on garde une "sensation" de détail ? Personnellement, j'aurais tendance à pencher pour la deuxième solution, mais je serais intéressé pour en parler avec vous.

*****

Passons maintenant au cas par cas :

L'ALEXA est finalement quelque part celle qui a le cercle de confusion le plus gros, assez proche du film. On peut aussi remarquer que les problèmes de couleurs dus au filtre de Bayer sont clairement présents mais relativement doux, avec des couleurs plutôt pastel. Et ce que je trouve aussi important à noter, c'est la chute dans le flou est très douce.
Je considère personnellement que la dernière mire où l’on sent du détail est celle à 47 lignes/mm, ce qui nous donne un cercle de confusion de 0,021mm.

Concernant la RED, première chose : la mire est exactement la même que ce soit en 4K, en 2K, mais également pour l'EPIC. Ce qui est loin d'être étonnant, puisque c'est le même capteur dans tous les cas. Même si la résolution est différente, la "densité" de pixel est strictement la même. Ainsi, projetés sur un écran de même taille, les pixels d'une image 2K seront complètement étirés par rapport à une image 4K, ce qui explique la très mauvaise qualité de la RED en 2K. Dans l'autre sens, à focale égale, le capteur 5K de l'EPIC ne verra absolument aucun détail supplémentaire qu'une RED ONE en 2K. Là où tout n'est pas perdu, c'est qu'à focale égale, l'angle de champ n'est pas le même. Donc à angle de champ égal, l'EPIC sera en effet plus précise qu'une image 4K, tout simplement parce que le capteur de l'EPIC nous oblige à être plus près de la scène.
Outre cela, on observe tout de même l'importante résolution des caméras.
Niveau mire, je prends personnellement la 72, avec un cercle de confusion de 0,013mm donc.

Comme je le disais, la F35 est un cas particulier puisque qu'elle ne possède pas un filtre de Bayer mais un RGB Stripe (c'est précisément pour cela que j'ai voulu la tester, bien qu'elle ne sorte plus trop) On observe effectivement que les dérives de couleurs ne sont pas exactement les mêmes qu'avec un filtre de Bayer et que le phénomène d'aliasing est un petit peu plus léger. Autre particularité : bien que la F35 ne délivre qu'un signal HD, le capteur est en réalité un capteur 5840x2160, ce qui est assez clair quand on voit qu'elle va tout de même assez loin en définition.
Concernant le cercle de confusion, j'hésite un peu entre 66 et 62, donc je préfère prendre la valeur la plus conservatrice, 66, ce qui nous donne un cercle de confusion de 0,015mm

Quand on regarde les images de la F3, la première chose qu'on se dit c'est : "qu'est-ce que c'est que cet échequier bleu et orange en plein milieu ?!!" J'avoue ne pas trop savoir. J'aurai aimé pouvoir dire qu'il s'agissait de la compression à 35Mbit/s, mais pour le coup, il s'agit d'un enregistrement à 220Mbit/s sur un PIX 240. Donc soit j'ai loupé un réglage pour configurer la sortie, soit quelque chose d'assez violent se passe au niveau de traitement du signal directement à l'intérieur de la caméra. Il faudrait que je voie si la caméra réagit de la même façon en 444, mais entre 422 et 444, devrait-il y avoir une si grande différence ?
Malgré cet artefact étrange, en terme de définition, la F3 se débrouille sacrément bien pour une caméra de cette gamme et un capteur HD, loin derrière les autres caméras présentées. On voit encore des lignes jusqu'à la mire 66, donc comme la F35 (mais qui a un capteur bien plus défini) cela nous donne un cercle de confusion de 0,015mm.

Par curiosité, j'ai fait des tests en ProRes Proxy. L'image est très nettement dégradée, mais bizarrement, en terme de définition, nous ne sommes pas si loin que ça du ProRes 422.

Et dernier test, le Canon 7D. Là encore, on a un petit sursaut quand on voit ce qui se passe vers les mires 38 et 40. Là part contre, j'analyse très clairement ça comme un artefact de compression dû au MPEG4 à 35Mbit/s. Puis on continue pour être spectateur du plus bel exemple d'aliasing de ces tests. À partir de lignes extrêmement fines, le Canon fabrique des lignes énormes aux mires 72 et 80 (avec une étrange inversion dans la diagonale que prennent ces lignes, il doit y avoir une raison j'imagine) Si le phénomène est aussi important, c'est parce que le 7D a un capteur d'appareil photo (plutôt logique pour un appareil photo) Les pixels sont donc très petits et en grande densité. Pour fournir une image HD, le 7D ne va prendre que 1 pixel sur 3, soit un sous-échantillonnage gigantesque avec un espace énorme entre chaque pixel lu (encore une fois, cf. Nyquist) qui donne ce phénomène.
Sauf que malgré ce grave problème, les pixels sont bels et bien les plus petits et permettent donc d'avoir une image extrêmement précise. Ce qui nous amène à avoir une sensation de détail à la mire 102 ! (Je vous rassure, j'ai refait l'essai en plaçant la caméra plus loin pour vérifier que ça n'allait pas au-delà de 102, et 102 est bel et bien la dernière mire possible à lire)
Donc finalement, le Canon a le cercle de confusion le plus difficilement déterminable. Les artefacts apparaissent très vite, le phénomène d'aliasing est énorme, les chiffres sont illisibles, mais à côté de ça, on arrive à sentir du détail sur la mire 102, ce qui donne un cercle de confusion de 0,009mm. On a donc quelque part une certaine cohérence avec cette image assez peu définie ayant pourtant une profondeur de champ minuscule.


Voilà bon c'était assez touffu. Sur ce, je vous laisse vous faire votre avis, vous avez les mires, et je serais très curieux de savoir comment vous les analysez.

J'essaierai d'aller prochainement chez PhotoCineRent pour tester la F65, qui est a priori un cas assez particulier, notamment grâce à son capteur 8K, mais aussi grâce au nouveau filtre et à la nouvelle disposition des pixels qu'elle utilise.

#2 L'utilisateur est hors-ligne   Régis Prosper 

  • Groupe : Membre Professionnel
  • Messages : 265
  • Inscrit(e) : 7 février 09
  • Lieu :Paris
  • Profession :Fabricant
  • Autre Profession :
    Importateur

Posté 27 mars 2012 - 08:47

Très intéressant Nicolas :yes: . Après, outre le capteur, je pense que la puissance du DSP influe aussi sur le résultat, c'est pour celà qu'il serait intéressant de voir ce que donne la Canon C300.

#3 L'utilisateur est hors-ligne   Nicolas Eveilleau 

  • Voir la galerie
  • Groupe : Membre Professionnel
  • Messages : 321
  • Inscrit(e) : 20 mai 09
  • Lieu :Asnières-sur-Seine
  • Profession :Assistant Opérateur

Posté 27 mars 2012 - 09:55

J'avoue que je pensais que les DSP étaient maintenant suffisamment puissants pour gérer tout ça, mais les résultats de la F3 sembleraient dire le contraire.

#4 L'utilisateur est hors-ligne   Philippe Brelot 

  • Voir la galerie
  • Groupe : Admin Principal
  • Messages : 1 266
  • Inscrit(e) : 14 janvier 09
  • Lieu :Paris
  • Profession :Directeur Photo / Chef-Opérateur

  • CST

Posté 30 mars 2012 - 12:29

Merci Nicolas pour cet excellent travail clair et précis !

#5 L'utilisateur est hors-ligne   Peter Mackay 

  • Groupe : Membre
  • Messages : 2
  • Inscrit(e) : 1 février 12
  • Lieu :Montmirey La Ville (39)
  • Profession :Assistant Opérateur

Posté 03 avril 2012 - 10:54

Merci beaucoup d'avoir partagé tes essais sur les cercles de confusion. J'ai travaillé un peu dessus, ce n'est pas évident de tirer des conclusions. Personnellement je trouve des "mires limites" inférieures aux tiennes. Par exemple, pour l'Alexa, je dirais 40, et toi 47. Or je trouve qu'à 47, on voit uniquement du repliement de spectre, et on est incapables de "compter les lignes", cf. le site de l'AOA. 43 pourrait être un juste milieu, mais ça me semble vraiment difficile de rester objectif ici. Surtout, pour le 7D à la mire 102, je considère que ce qu'on voit, c'est uniquement du repliement du spectre, sans aucun détail corrélé avec l'image réelle.



Pour résumer, j'aurais plutôt tendance à "considérer que le cercle de confusion doit être déterminé en fonction de la mire où on voit les mires réelles", et non celle "où on garde une "sensation" de détail".

La raison qui me pousse à le penser est la suivante : Les mires que nous utilisons - une ligne blanche, une ligne noire -, ne sont pas constituées d'une seule fréquence spatiale. D'un point de vue signal, il s'agit d'un signal carré, avec une fréquence fondamentale (celle qu'on peut lire) et des harmoniques impaires. Or je crois que la sensation de détail qu'on peut éprouver vient en grande partie du repliement de ces fréquences multiples. Ainsi, si on utilisait des mires avec des sinusoïdes pures - ou tout simplement une "tache" avec des bords doux - on aurait pas autant de repliement de spectre, et davantage un carré gris uni, sans détail. On choisirait alors une mire avec une fréquence spatiale inférieure.



D'un autre côté, je pense comme toi que ces phénomènes de repliement, dus à l’échantillonnage numérique, participent d'un type de netteté nouveau, absent du film argentique et de sa distribution aléatoire de grains.

Prenons le cas extrême du 7D, et sa sensation de détail avec la mire 102. Pour une configuration donnée, il existera un plan antérieur et un plan postérieur définis par le fait que les très haute fréquences spatiales des objets situés entre ces deux plans créent des vaguelettes - certes totalement dé-corrélées de l'image réelle. Cette nouvelle profondeur de champs, plus petite que la profondeur de champs classique (que je calculerais pour ma part sur la base de la mire 33), peut alors définir un nouveau type de netteté utilisable en numérique.


Pour conclure, ce type de netteté ne me semble pas naturelle. Néanmoins, la distribution non aléatoire des pixels des capteurs numérique a créé ce phénomène. J'ai hâte de voir l'Aaton Pénélope Delta et son "système qui rend compte de l'aléatoire de la réalité" ...

Ce message a été modifié par Peter Mackay - 03 avril 2012 - 12:40.


#6 L'utilisateur est hors-ligne   Nicolas Eveilleau 

  • Voir la galerie
  • Groupe : Membre Professionnel
  • Messages : 321
  • Inscrit(e) : 20 mai 09
  • Lieu :Asnières-sur-Seine
  • Profession :Assistant Opérateur

Posté 03 avril 2012 - 19:41

Je suis complètement d'accord, c'est difficile de tirer des conclusions et c'est bien pour ça que j'ai pris la peine d'écrire un sujet un peu long avec à grand renfort d'image, c'est pour pouvoir en parler, et je te remercie pour ton avis qui, même si je ne le partage pas entièrement, me force à préciser un peu ma façon de voir les choses.

La première chose qu'il est important de préciser c'est que malgré tout, au milieu de tous ces chiffres, nous faisons du cinéma. Si j'ai besoin d'avoir une valeur assez précise pour le cercle de confusion, ce n'est pas pour le chiffre est lui même, c'est pour pouvoir l'utiliser pour calculer la profondeur de champ. La profondeur d'une image qui plus est, avec toutes ces caractéristiques. Et moi, en temps qu'assistant opérateur, ce qui m'intéresse c'est que la partie voulue de cette image soit nette. Et cette utilisation pratique d'un chiffre purement mathématique implique pour moi une façon particulière d'analyser les résultats de ces essais.

Commençons par cette histoire de mire par exemple. J'avoue très honnêtement que les histoires d'harmonique et de repliement de spectre m'évoquent beaucoup de souvenirs mais un peu trop éloigné, et j'atteins alors mes limites en physique. Par contre, je sais une chose : une mire avec des sinusoïdes pures (donc un passage en douceur du noir au blanc) ou une tâche avec des bords doux, pour moi assistant-opérateur, c'est la même chose qu'une mire floue ou molle. Et c'est précisément ce que je veux éviter. Donc oui, avec des mires plus sinusoïdales, j'aurai certainement plus de carré "gris", mais moi ce que je veux, c'est justement avoir le plus de détails possibles (en laissant après au chef opérateur le plaisir de mettre 3 couches de diffusion, ce qui quelque part à des effets assez proches à avoir un plus gros cercle de confusion)

De même, je suis d'accord pour dire que tout ce qu'on voit dans les mires les plus fines, ce ne sont pas des vrais détails, mais bien des détails "inventés" par la caméra. Donc effectivement, est-ce pertinent de s'en servir pour calculer le cercle de confusion ? Pour moi oui, mais je vais essayer de préciser un peu moins point de vue.

Encore une fois, replaçons dans le cadre concret de nos métiers. Ce beau chiffre ne m'intéresse que pour une seule raison : je veux savoir quand mon image est nette et quand elle ne l'est plus, et ce sur un écran de téléphone portable ou sur un 20m de base (qui n'ont pas franchement la même tolérance)

Première chose pour commencer : la notion de netteté est relative (toute mesure gardée bien sûr). En effet, si on compare l'image d'un film en Super16 avec des Cooke S3 et celle d'un film en F65 avec un des nouveaux zoom Fujinon, il va y avoir pas mal plus de détails dans la deuxième image que dans la première. Pour autant, on dira de la première image qu'elle est "plus douce" ou "moins piquée", pas qu'elle est plus floue. De même ici, l'image d'une RED ne sera pas plus nette que celle d'une ALEXA parce qu'elle a un cercle de confusion plus petit.

C'est là où ca devient intéressant et pratique. Car si on suit un peu ce que je viens de dire, la notion de netteté dépend du système optique+capteur utilisé. Replaçons nous alors devant les mires que j'ai filmé avec la RED et avec l'ALEXA, et prenons par exemple la mire 56. Elle est parfaitement nette avec la RED et parfaitement floue avec l'ALEXA. En regardant l'image de l'ALEXA, rien ne me gêne.
Pourtant (et c'est là où la notion de cercle de confusion devient intéressante), si je filme avec une RED et que la mire 56 avait l'apparence de celle filmée par l'ALEXA, je considèrerai mon image comme "molle", et il s'agirait alors d'une erreur de mise au point.

C'est vraiment là tout l'enjeu de cette notion de cercle de confusion. Quand bien une image aurait exactement la même apparence, dans un cas elle sera considéré comme nette, dans l'autre elle sera molle.

C'est avec ça en tête qu'on peut revenir à la question compliquée de savoir s'il faut prendre en compte "les mires dont on peut compter les lignes" ou celle où on garde une "sensation de netteté"
On peut aborder la question de deux façons.
Premièrement, restons devant les mires, et prenons celle qui pose le plus de problème : celle du 7D. Je suis complètement d'accord avec toi : ce qu'on voit sur la mire 102 n'a absolument rien à voir avec l'image réelle. C'est le 7D qui, à partir de très hautes fréquences, nous invente cette image sortie de nulle part. Sauf qu'il ne l'invente pas de toute pièce. S'il est capable de l'inventer, c'est parce que à la base, il a été capable de voir ces très hautes fréquences. Il n'a juste pas réussi à les restituer avec exactitude.
Mais si une erreur de point avait été commise, l'optique aurait livrée une tâche grise et le 7D n'aurait pas inventé de détails par-dessus.
Dans un cas concret, si on filme par exemple les cheveux d'un comédien, si la mise au point est bonne, on ne verra pas bien les vrais ondulations des cheveux mais on sentira qu'il y a du détail, alors que s'il y a une erreur de point, on verra un aplat.

Dans un autre cas, imaginons deux comédiens qui se parlent mais avec l'un étant plus loin de la caméra que l'autre. Le chef op pourra me demander quel diaph il doit afficher pour que les deux soit dans la profondeur en faisant un compromis et en faisant le point au milieu. Même si le 7D ne fournit pas de manière vraiment fidèle les détails sur les comédiens, si j'ai une "sensation de netteté" plus importante sur le poteau entre les deux que sur les personnages, le spectateur risque de croire qu'on appelle son attention sur le poteau. Alors que si on filme avec une ALEXA par exemple, avec laquelle ce défaut d'invention de détail est beaucoup plus faible, les comédiens auraient exactement la même sensation de netteté.

Là où j'ai un réel problème et un réel questionnement par contre, c'est que concrètement, on filme rarement des comédiens qui ont une tête de mire. Donc j'ai un peu de mal à savoir justement comment apparaîtrait cette notion de "sensation de netteté", qui reste pour l'instant sacrément subjective et bien mal définie.

Bref, la réflexion autour de tout ça est encore largement ouverte. Merci Peter d'avoir fait un peu avancer la mienne en tout cas, n'hésite pas à me dire si tu partages un peu ma façon de voir les choses maintenant que j'ai pu un peu plus l'argumenter que lors de mon premier post.

En tout cas une chose me semble sûr : il y a effectivement avec le numérique la naissance d'une nouvelle netteté et d'une nouvelle profondeur de champ, moins naturelle, ou en tout cas moins habituelle.

#7 L'utilisateur est hors-ligne   Peter Mackay 

  • Groupe : Membre
  • Messages : 2
  • Inscrit(e) : 1 février 12
  • Lieu :Montmirey La Ville (39)
  • Profession :Assistant Opérateur

Posté 04 avril 2012 - 11:35

En fin de compte, il pourrait être pertinent de compléter ces essais avec une mesure expérimentale de la profondeur de champs :
On se place dans une configuration donnée (focale, diaph, distance de mise au point), on mesure expérimentalement, à l'oeil, la profondeur de champs - le plan antérieur et le plan postérieur-, et on en déduit un cercle de confusion expérimental.

On pourrait alors comparer ce cercle de confusion expérimental avec notre cercle de confusion trouvé à partir des mires. Cela nous aiderait peut-être !

#8 L'utilisateur est hors-ligne   Nicolas Eveilleau 

  • Voir la galerie
  • Groupe : Membre Professionnel
  • Messages : 321
  • Inscrit(e) : 20 mai 09
  • Lieu :Asnières-sur-Seine
  • Profession :Assistant Opérateur

Posté 07 avril 2012 - 19:02

Depuis que j'ai commencé ces essais, il y a une caméra sur laquelle j'attendais de poser mes mains : la nouvelle Sony F65. Voilà qui est fait.

Un grand merci tout d'abord à l'équipe de PhotoCineRent et notamment à Adrien qui a pu gérer le workflow (encore un peu compliqué)

Parlons donc des essais. J'ai testé une F65 avec le nouveau zoom Fujinon 18-85mm (qui sont censé être les seules à pouvoir délivrer une image assez précise au capteur) Contrairement à Cooke, Fujinon ne communique pas sur la distance de la pupille d'entrée de ces objectifs, j'ai donc dû la déterminer avec un bon vieux tests d'alignement, en restant au 50mm pour garder la même focale que pour mes anciens essais.

Je sais, ce n'est pas la même focale, donc les tests ne peuvent pas réellement comparé. Je n'avais hélas pas vraiment le choix, et pour ma défense, les tests du 7D montrent bien que les Cooke 5I possèdent une résolution extrêmement élevée.

Concernant le worflow, nous avons déchargé tous mes essais sur mon ordinateur puis nous les avons exporter en DPX grâce à "F65RAW Viewer" puis je les ai lu sur Photoshop.
Petite curiosité au passage concernant l'espace mémoire qu'il faudrait prévoir pour un tournage en F65 : un clip de 6 secondes pèse un peu plus de 1,5Go. Voilà, ça c'est dit...

Mais revenons à nos cercles de confusion.

Premières images, juste pour la comparaison. Je me suis mis dans les mêmes conditions que pour les autres caméras, soit à 30x la distance focale à partir de la pupille d'entrée. Voici le résultat :


Sony F65 (capteur 8K qui délivre du 4K, filtre en quiconce, enregistrement en F65RAW sur un SR-R4)

100%
Image attachée

200%
Image attachée


Ouch, comme vous dites. Ca c'était juste pour la comparaison. Maintenant pour la valeur du cercle de confusion en lui-même, la petite est tellement précise qu'elle m'a forcé à me reculer et à me mettre à 60x la distance focale (il faut donc lire le deuxième chiffre à côté de chaque mire pour avoir le nombre de ligne par mm). Voici les résultats :

100%
Image attachée

200%
Image attachée

400%
Image attachée


Bon, encore une fois, c'est très difficile à analyser.

Première chose très claire : le filtrage du capteur en quiconce au lieu d'être en filtre de Bayer standard ne règle absolument pas le problème d'aliasing. Il est finalement presque pire qu'avec la F35.

Autre chose qui saute aux yeux : la résolution horizontale semble supérieur à la résolution verticale. C'est assez flagrant sur la mire 94 par exemple.

Troisième chose : si on regarde la résolution verticale on passe par une sorte de flottement. Jusqu'à la mire 80, tout va bien, puis mire 86 et 94, on a un carré gris, puis des lignes réapparaissent mire 102.

Déjà que les résultats ne sont pas évident à analyser, ces deux derniers éléments empirent la chose. Doit-on considérer qu'il faut prendre les mires nettes dans les deux directions ? Si oui, doit-on s'arrêter avant les zones grises, en considérant que tout ce qui vient après est de l'interprétation, ou doit-on encore une fois considérer que même s'il s'agit de détails inventés, ils contribuent à une sensation de détails qui offrira alors une "sensation de netteté", surtout en comparaison avec le reste de l'image ?

Histoire de donner une autre base de réflexion, voici une image prise à 120x la distance focale :

200%
Image attachée

400%
Image attachée

Avec tout ça, j'aurais tendance personnellement, en étant un peu sévère avec le pointeur, à choisir la mire 124. Comme d'habitude, je sais que c'est de l'aliasing, mais je reste sur le principe que cela apporte une sensation de détail (je regarde donc presque plus l'image à 200% qu'à 400%)
Tout ça nous donner donc un cercle de confusion de 0.0081mm

Juste pour ceux qui me dirait que les dernières commencent à être vraiment moche, encore une fois rappelons que j'étais à 6m, et que je partais de là :

25%
Image attachée


Après toutes ces considérations techniques, il y a quand même de vraies questions qui se posent.

La question qui ne se pose pas, c'est pour les effets spéciaux. N'importe qui qui fait un peu de fond vert ne va plus vouloir tourner qu'avec la F65, ça me semble assez évident.

Par contre, prenons un film "normal", sans effet spéciaux, une bonne vieille comédie sociale par exemple. Honnêtement, je ne sais pas si le cerveau du spectateur est prêt à recevoir autant d'information. Mais je ne fais qu'un souci limité de ce point de vue : un jolie traitement en post-prod, un petit traitement pour rajouter du grain et un côté aléatoire à l'image devrait rattraper tout ça sans problème. Un filtre caméra aussi bien sûr, mais la tendance semble être à laisser le plus de détails possibles pour la post-prod, alors bon... Et puis c'est vrai que je me demande si on ne va pas finir par faire des caméras tellement précises qu'elles vont finir par voir la trame des filtres.

Il y a une vraie question pour les corps de métier aussi. Je pense notamment à nos amies maquilleuses, puisque là, le moindre pore de peau risque d'apparaitre très sévèrement. Et des raccords maquillages poussés seront nécessaires même pour des plans larges (n'oubliez pas que pour les dernières images, je suis quand même à 6m du sujet !)

Et je pense bien évidemment à nous autres pointeurs. Soyons déjà clair sur le fait que sur de nombreux plateaux, on a parfois l'impression de demander la lune quand on demande 1min pour tirer des points. Ici, prenons un exemple concret :

Je suis au 25mm à 7' à T2.8, je filme un personnage relativement fixe, qui piétine un peu. En 35mm par exemple, bon je suis plutôt peinard. Un petit calcul de profondeur de champ histoire de me rassurer m'indique que j'ai plus de 3'6" de profondeur
La même en F65, 25mm à 7', j'ai tout juste 1' de profondeur. 1', au 25mm, à 7' ! En venant très certainement d'entendre dire : "Nan mais c'est bon c'est du numérique, on filme la répèt."

Je laisse les gens a qui ça parle se faire leur propres commentaires...

#9 L'utilisateur est hors-ligne   Régis Prosper 

  • Groupe : Membre Professionnel
  • Messages : 265
  • Inscrit(e) : 7 février 09
  • Lieu :Paris
  • Profession :Fabricant
  • Autre Profession :
    Importateur

Posté 08 avril 2012 - 10:54

C'est pas grave, on mettra des optique de 20 ans d'age dessus avec des frontales passées au papier de verre pour adoucir :lol: .

Bon Nicolas, il nous manque la C300 là, au boulot !

Ce message a été modifié par Régis Prosper - 08 avril 2012 - 10:56.


#10 L'utilisateur est hors-ligne   Nicolas Eveilleau 

  • Voir la galerie
  • Groupe : Membre Professionnel
  • Messages : 321
  • Inscrit(e) : 20 mai 09
  • Lieu :Asnières-sur-Seine
  • Profession :Assistant Opérateur

Posté 24 avril 2012 - 16:11

Ca y est Régis ! La voici ta C300 !

Dans le cadre d'essai dont vous entendrez parler bientôt de manière beaucoup plus large, j'ai donc pu filmer ma petite mire avec une C300.

Là encore, ATTENTION : je n'avais pas la même focale. Il s'agissait d'un 50mm Zeiss monture EF, dont je ne connais absolument pas les caractéristiques. Ayant fait les essais, je partage tout de même les résultats, mais il faudra que je les fasse à nouveau avec un Cooke 5i. Les conclusions tirées sont donc temporaires.

Canon C300 (capteur HD, filtre de Bayer, enregistrement en MPEG-2 4:2:2 à 50Mbit/s)

200%
Image attachée

400%
Image attachée

J'avoue avoir été agréablement surpris, je trouve que la chute dans le flou se fait de manière assez esthétique, avec un aliasing plutôt bien géré. Je reste juste encore un peu sur mes gardes tant que je n'ai pas pu la regarder avec un Cooke 5i, me disant que c'est peut-être la focale qui adoucit un peu la chose, mais je ne pense pas, puisque le défaut est quand même présent.
En terme de cercle de confusion, j'aurai tendance à garder la mire 62, ce qui nous fait un cercle de 0,016mm.

J'espère pouvoir la tester avec le Cooke ou le Fujinon bientôt.

#11 L'utilisateur est hors-ligne   Baptiste Leleu 

  • Groupe : Membre
  • Messages : 9
  • Inscrit(e) : 26 février 12
  • Lieu :Perche
  • Profession :Assistant Opérateur
  • Autre Profession :
    Monteur

Posté 20 juillet 2012 - 17:04

Bravo ! Merci beaucoup pour ces tests Nicolas !

#12 L'utilisateur est hors-ligne   Nicolas Eveilleau 

  • Voir la galerie
  • Groupe : Membre Professionnel
  • Messages : 321
  • Inscrit(e) : 20 mai 09
  • Lieu :Asnières-sur-Seine
  • Profession :Assistant Opérateur

Posté 24 mars 2013 - 10:50

Voici mes essais de cercle de confusion concernant la nouvelle Sony F55 (encore merci à l'équipe de PhotoCineRent pour m'avoir fournit l'espace et le matériel pour ces essais)

J'ai utilisé un 50mm Cooke 5i (comme pour ma première batterie d'essais).

Sony F55 (capteur 4K, filtre de Bayer, enregistrement en XAVC 4K 4:2:2 10 bits = environ 250Mbit/s)

100% (à 30x la focale)
Image attachée

200% (à 30x la focale)
Image attachée

Comme on peut on lire la dernière mire, j'ai dû, comme pour la F65, me reculer et doubler la distance entre la caméra et la mire. Donc là encore ATTENTION : il faut lire le deuxième chiffre à côté des mires.

200% (à 60x la focale)
Image attachée

400% (à 60x la focale)
Image attachée

Première conclusion : la résolution est évidemment un point fort de la caméra, puisqu'elle a la plus haute résolution de toutes les caméras que j'ai testé, or F65 qui a un capteur 8K. Deuxième chose : même si quand on arrive en limite de résolution, on tombe de manière assez douce dans le flou, il y a toujours cette instant critique qui rappelle un peu la F3 où des artefacts étranges apparaissent, et donnent aux mires un aspect "labyrinthique".

Personnellement, je prend comme mire limite la mire 102 (comme toujours, c'est un choix arbitraire, c'est pour ça que je mets les images afin que vous choisissiez vous-même le cercle de confusion que vous estimez le plus juste) Ce qui nous donne un cercle de confusion de 0.0098mm.
Pour avoir pointé sur 2 films en F55, je peux vous assurer que ça se sent...

Il est intéressant de montrer que la notion de 4K est donc relative. En effet, la F55, comme la RED, a une résolution de 4K (l'EPIC est même à 5K) Pourtant, il est clair que la F55 est plus définie, puisqu'on peut lire 4 mires plus loin. Cela vient-il du capteur ? Du filtre de Bayer ? De la lecture du capteur ? Du calcul de l'image ? Si l'écart vient des 3 premiers, alors il existe intrinsèquement à la caméra. Si cela vient du calcul, le RAW peut laisser imaginer qu'on pourra améliorer la définition a posteriori.

En parlant du RAW justement, la F55 peut être utilisée avec l'AXS-R5, un enregistreur RAW. Comme la F55 est particulièrement intéressante puisqu'elle est la première caméra à offrir du 4K sous forme de fichier vidéo, et plus simple en RAW, il me semblait intéressant de comparer la deux et de voir si la perte de définition allait être sensible.

Voici donc exactement la même image que les deux dernières (avec la mire à 60x la focale) filmée en F55RAW avec l'AXS-R5.

Sony F55 en enregistrement RAW

200%
Image attachée

400%
Image attachée

Pour moi, il n'existe aucune différence de résolution entre le XAVC 4K et le RAW 4K. Le RAW trouve donc son intérêt en ce qui concerne la couleur (puisqu'on enregistre toutes les infos couleur et qu'elles sont quantifiées en 16bits au lieu de 10), mais pas la définition.

#13 L'utilisateur est hors-ligne   Roger Canto 

  • Groupe : Membre Professionnel
  • Messages : 46
  • Inscrit(e) : 9 août 10
  • Lieu :Toulon
  • Profession :Enseignant
  • Autre Profession :
    Documentariste

Posté 24 mars 2013 - 17:21

Excellent !

Merci Nicolas.

.

#14 L'utilisateur est hors-ligne   Paul Morin 

  • Groupe : Étudiant
  • Messages : 51
  • Inscrit(e) : 12 avril 12
  • Lieu :Paris
  • Profession :Étudiant - Image

Posté 13 mai 2013 - 19:11

Nicolas (et les autres bien évidemment :)/> ),

J'ai récemment eu à me poser une question proche de tes réflexions sur le cercle de confusion. Voici mon raisonnement, je pense enfin avoir trouvé la réponse mais j'aimerais bien qu'on me dise si j'ai vu juste ou si je me trompe. Mes excuses si cela vous paraît un peu simple.

J'ai bossé il y a peu comme premier assistant sur un court étudiant en RED One. Le chef op et le réal ont décidé de tourner en 2K parce que le film (une fiction) était tourné "façon documentaire" (beaucoup d'improvisation, acteurs non-professionnels, pas de répétitions, etc.) et que cela aiderait notamment au point.

Pendant la prépa, j'ai démarré CineTool pour le régler sur "RED One". Mais là, surprise : il n'y a pas de réglage de format (4K/2K), la profondeur de champ serait toujours la même. J'ai tiqué mais ça m'a vite rappelé ce que tu disais dans ton premier post, à savoir qu'en RED, 2K, 4K, Epic donnaient la même mire. "Normal vu que c'est le même capteur".

Mais de fait, quand on tourne en 2K, on a plus de profondeur de champ qu'en 35, à cadres égaux et exposition identique. C'est ce paradoxe apparent (mêmes mires en 2K/4K mais la pdc est quand même différente au final) qui m'a trituré l'esprit pendant quelques temps.

J'ai fini par me dire que la seule explication est que quand on passe en 2K, on est amené à travailler avec des focales plus courtes (équivalent grossier de passer du 35 au 16). Et que c'est simplement le raccourcissement des focales qui explique l'augmentation de la profondeur de champ, toutes choses égales par ailleurs.

Est-ce l'explication ? Ou bien ai-je raté un élément ?

Merci à vous !

#15 L'utilisateur est hors-ligne   Nicolas Eveilleau 

  • Voir la galerie
  • Groupe : Membre Professionnel
  • Messages : 321
  • Inscrit(e) : 20 mai 09
  • Lieu :Asnières-sur-Seine
  • Profession :Assistant Opérateur

Posté 13 mai 2013 - 22:59

Non non tu as tout à fait raison. "A cadres égaux", la profondeur de champ est plus grande en 2K qu'en 4K, mais à focales égales, elle reste la même. C'est effectivement la même chose que la différence entre du 35mm et du 16mm : en soit, pour une émulsion donnée, la pellicule est la même. Mais on dit qu'on a plus de profondeur en 16mm tout de même. C'est donc exactement ce que tu disais : en réalité, la profondeur ne change pas, mais pour avoir le même plan, on est amené à utiliser des focales plus courtes.

D'ailleurs le raisonnement est le même pour l'anamorphique. Tu prends une pellicule 35mm, tu l'exposes en Super35 avec une confo 2.40 ou en anamorphique x2, tu auras l'impression d'avoir plus de profondeur en Super35, mais c'est uniquement parce que le choix de focale sera différent. Alors qu'on expose bien la même pellicule, donc que évidemment, le "cercle de confusion de la pellicule" reste identique.

Le seul point qui rend cette comparaison 35mm / 16mm un peu plus délicate, c'est l'agrandissement. Encore une fois, je rappelle que ces tests sont très techniques, ils reposent uniquement sur des mires dans lesquelles on zoome pour voir la résolution du capteur. Mais il reste malgré tout une étape finale : la diffusion au spectateur. L'écran étant le même, la "petite image" (le 16mm ou le 2K de la RED) est "blown-up", elle est agrandie par rapport au 35 pour que l'image projetée remplisse le même espace sur l'écran. Ce qui signifie en résumé que les cercles de confusion sont eux aussi grossis, qu'on les voit plus, et donc qu'on est censé également voir plus les défauts de point. Voilà aussi une des raisons d'ailleurs pour laquelle, dans les calculs "académiques", on prenait un cercle de confusion plus petit pour le 16mm. On garde toujours le fait que à cadres égaux, la focale est plus courte en 16mm, mais en réalité, à focales égales, on est censé ressentir une profondeur de champ plus faible en 16mm, contrairement à ce qu'on pourrait croire. Mais là encore, la différence de définition et le fait qu'on ressent donc une image moins piquée dans sa globalité rend tout cela très subjectif. Voilà pourquoi donc je m'en tiens à des mires et à de la pure technique, laissant chacun se faire son avis derrière.

#16 L'utilisateur est hors-ligne   Kevin Tudeau 

  • Groupe : Étudiant
  • Messages : 14
  • Inscrit(e) : 20 janvier 13
  • Lieu :Val-de-Marne
  • Profession :Étudiant - Image

Posté 14 mai 2013 - 08:43

Merci beaucoup pour ces tests. (Pour certains il y a plus d'un an certes).
J'ai encore du mal avec certaines choses, étant encore qu'en première année de BTS audiovisuel, il y a forcément des notions "floues". Mais cela me permets déjà d'avoir un peu plus d'acquis grâce à vous. Merci !
C'est d'ailleurs l'une des raisons pour laquelle j'ai choisi de faire l'un de mes deux stages en magasin de location matériels, justement pour voir les essais caméras et j'en passe.
Au moins, maintenant, je sais à quoi m'attendre, ah ah.

#17 L'utilisateur est hors-ligne   Paul Morin 

  • Groupe : Étudiant
  • Messages : 51
  • Inscrit(e) : 12 avril 12
  • Lieu :Paris
  • Profession :Étudiant - Image

Posté 14 mai 2013 - 15:33

Merci Nicolas. C'est marrant, j'étais premier assistant en Scope récemment à l'occasion d'un exercice à l'école et le raisonnement ne m'avait posé aucun souci ! Je n'avais juste pas vu que c'était la même chose pour cette histoire de 2K/4K.

Page 1 sur 1
  • Vous ne pouvez pas créer un sujet
  • Vous ne pouvez pas répondre
  • Partager


1 utilisateur(s) en train de lire ce sujet
0 membre(s), 1 invité(s), 0 utilisateur(s) anonyme(s)



Advertisement