Aller au contenu

22Ney44

Membre association
  • Compteur de contenus

    3767
  • Inscription

  • Dernière visite

  • Jours gagnés

    13

Tout ce qui a été posté par 22Ney44

  1. 22Ney44

    Reports de bugs

    Bonjour @astrotophe, La remarque faite par @polorider juste ci dessus mérite qu'on s'y arrête avec attention. Que dit-il ? Il décrit sa séquence de connexion comme une quasi normalité au début puis une dégradation au bout de quelques minutes au point de renoncer. Pour ma part, c'est un peu cela aussi, mais d'autres comportements également très pénalisants comme le blocage au moment de publier une réponse. Lorsqu'on vient de passer plusieurs dizaines de minutes à construire, à rédiger, à corriger une réponse longue et pfuit ! elle disparait parce que le serveur a perdu le fil des choses, est très rageant les premières fois, totalement décourageant par la suite. Nombreux sont celles et ceux qui rencontrent des soucis. Une lecture attentive des remarques montre que cela n'arrive pas au même moment. Je trouve ce point important car il tendrait à montrer que ce n'est pas le serveur qui serait la cause première. En effet à tout moment, le serveur semble bien fonctionner pour quelqu'un. Par contre, après un temps d'utilisation, c'est chez bon nombre que des dysfonctionnements apparaissent. En partant de ces observations et en analysant les faits, une idée de cause m'est venue qui serait un hybride entre cause centrale, le serveur, et cause locale le terminal. Un élément peut répondre à cette causalité hybride : ce sont les cookies. Certain que vous avez passé au peigne fin, très fin, de très nombreuses possibilités de causes sur le serveur sans avoir trouvé d'explications suffisantes, le temps est peut-être venu d'explorer d'autres pistes et je propose celle des cookies. Si d'aventure un ou plusieurs cookies semaient la pagaille, nous observerions les faits décrits plus haut. Pas de synchronicité de mauvais fonctionnement sur le parc des terminaux, mais comportement semblables après un temps de fonctionnement. Ce temps est celui mis par le serveur pour déposer les cookies après la connexion, puis par les cookies pour remplir leur fonction. Si un ou plusieurs de ces micro-fichiers renvoient une information invalide ou erronée au serveur, le serveur ne peut plus construire sa réponse correctement. L'inévitable erreur serveur est alors l'erreur 503 que nous voyons revenir systématiquement. L'erreur de cookies est en général, par un mauvais coup du sort comme un nommage malencontreux, (la dualité est en général la première raison), de deux ou plus de ses variables. Deux cookies au moins "répondent" alors à l'appel par le serveur de la variable, s'en suivent grouille, blocage fatal et erreur 503. Ce type d'erreur de nommage ne peut pas être détecté par le compilateur et passe alors entre les mailles du filet de contrôle. Peut-être que mon analyse est injuste, mais il serait peut-être bon au moins d'éliminer cette cause. Bon courage à l'équipe d'Admin's, et merci pour le service qui rappelons le est gratuit et bénévole. Ney
  2. Bonsoir @Tyler, Un site qui permet de "potasser" les réducteurs harmoniques :https://harmonicdrive.de/fr/produits Ney
  3. Bonjour @Great gig in the sky, En effet les couloirs du QAC sont plutôt déserts ces temps-ci. Ney
  4. Bonjour Roger, Une toute petite remarque de rien du tout. Entre -2 999 et + 3 000 il y a non pas 5 000 ans mais 5 998 ans d'écoulés. En effet dans notre chronologie l'année "0" n'existe pas. Nous passons du 31 décembre - 0 001 au 1er janvier 0 001. Pour l'énigme, il faut chercher. Ney
  5. Bonsoir @Gauloisir, Il y a eu environ 80 millions de personnes tuées durant la deuxième guerre mondiale dont environ 45 millions de civils soit nettement plus de la moitié. Les civils ont été celles et ceux qui n'étaient pas à la guerre : les enfants, les femmes, et les hommes vieux. Ney
  6. Bonjour @nico1038, Revenez sur la demande précise de ce sujet. @Erintox a souhaité pouvoir réaliser une analyse spectrale d'une ou plusieurs étoiles de la galaxie d'Andromède afin de mettre en évidence que les prédictions du modèle standard ne coïncident plus avec les observations de plus en plus fines. Son projet était alors d'apporter l'explication en introduisant le concept de matière noire. Pensez-vous que des observations depuis la Terre avec un instrument basique ou même évolué et les mesures afférentes réalisées en spectroscopie soit suffisamment précises et surtout résolues pour conduire un calcul prédictif de masse de matière noire devant un jury de bac ? Ney
  7. Bonjour @Erintox, Voici une porte qui pourrait amener des arguments à votre présentation du grand Oral. Puisque vous souhaitez proposer la présence de la matière noire comme possible candidate à l'explication des différences entre les prédictions et le constaté, je ne saurais trop vous incitez à regarder du côté de la mission Euclid, une mission CNES/CEA, dont l'objectif est de cartographier avec précision les points de masses invisibles dans l'Univers profond. Euclid vient de livrer encore cinq clichés de la nébuleuse Orion, riches de promesses. Mission Euclid : https://euclid.cnes.fr/fr Explication CEA : https://www.youtube.com/watch?v=f2oeUmTJsWM Derniers résultats scientifiques : https://cnes.fr/fr/euclid-premiers-resultats-scientifiques-et-nouvelles-images-etincelantes Ney
  8. Le message de détresse envoyé du Titanic qui coulait au large de Terre Neuve à 23H20 heure locale dans la nuit du 14 au 15 avril 2012. Ney
  9. L'explication est limpide sans conteste, mais entre-t-elle dans le cadre du programme du lycée, je ne le crois pas. Ces apprentissages se font en enseignement supérieur et encore pas en débutant. Le jury sera composé d'un enseignant scientifique présumé maitriser les notions abordées, et aussi d'un enseignant totalement vierge de ces connaissances. Selon le degré d'ouverture d'esprit des enseignants, l'exercice peut alors se révéler une situation à haut risque. Ney
  10. Bonjour @MKPanpan, Au risque de perturber notre lycéen, je ne vais pas trop développer. Le modèle ACDM ne prend pas formellement en compte la matière noire. L'introduction de ce concept toujours hypothétique dans le modèle standard n'est qu'une supputation pour tenter de rendre compte des faits observés et des mesures réalisées. L'observation de plus en plus précise faite par les satellites des comportements gravitationnels des galaxies rentre mal dans le modèle standard, offrant par là une ouverture aux milliers de modèles alternatifs, parmi lesquels le principe des cordes ou mieux des supercordes rend compte des écarts entre l'observation et la prédiction du modèle standard. Malheureusement même les supercordes passent complètement à côté de nombreux autres phénomènes et faits prédits par le modèle standard et vérifiés par l'expérimentation. Le modèle standard ou ACDM est encore et pour longtemps je pense, le seul scientifiquement acceptable malgré ses défauts. La matière noire (ou encore matière sombre) n'a à ce jour aucune existence prouvée. C'est bien cela que notre lycéen doit prendre en compte pour ne pas s'exposer à de grosses difficultés lors de l'Oral. Voilà pourquoi j'ai attiré l'attention de @Erintox sur son parti pris reposant sur cette existence et en lui proposant une démarche semblable à celle de la communauté scientifique sur ce sujet. Ney
  11. Bonjour @Erintox, Ce sont bien des personnes comme vous qui me donnent et confirment confiance en l'avenir. Le tapage médiatique nous donne à voir tant de "mauvaises surprises" qu'on en finit par croire que c'est la norme. Félicitations à vous d'avoir choisi un sujet très très ambitieux et très complexe. Aussi pour bien "border" votre travail, je ne saurais trop vous conseiller de bien cadrer dès l'introduction la position scientifique de la matière noire. Ne perdez pas de vue qu'à cet instant et compte tenu de nos connaissances validées par les pairs de la discipline, la matière noire n'est qu'une supputation théorique sans aucune vérité expérimentale démontrée. Aussi, si votre sujet (intention ?) est de démontrer son existence, je ne vois que deux issues à votre démarche : 1) Une note désolante car vous prenez pour établi un fait scientifique non démontré, 2) Le prix Nobel de Physique. Volontairement je force le trait pour vous alerter. Pensez à peut-être modifier votre perspective. Reprenez à votre compte le débat fécond et actif de la masse de l'Univers qui anime la communauté scientifique. 1) Partez du modèle standard actuel que pratiquement plus aucun scientifique ne remet fondamentalement en cause, tant les preuves d'observation sont établies, mesurées et validées . 2) Montrez dans un deuxième temps que malgré la performance de ce modèle, il demeure des observations "qui ne collent pas" 3) Parmi les thèses possibles pour expliquer cet écart se trouve le concept de matière noire. Je pense qu'avec ces précautions vous vous prémunissez contre les critiques inévitables de votre démarche comme vous nous la présentez. Je vous souhaite belle réussite dans cet exercice. Ney
  12. Ne soyez pas désolé, de l'échange nait la lumière. Si votre recherche va vers l'analyse de données des étendues gazeuses, alors les publications liées aux données délivrées par les deux satellites cités plus haut vont vous donner satisfaction. Un de leurs premiers objectifs de recherche était justement d'établir des modèles de la dynamique des galaxies. Vous devriez trouver votre bonheur. Fructueuses recherches à vous. Ney
  13. Bonsoir @duschnok, Je viens de trouver cet article du CNES qui parle des deux satellites que j'ai évoqués plus haut : https://cnes.fr/fr/1-loeil-du-satellite/naissance-et-mort-des-etoiles-dans-andromede En 2011 les étoiles n'étaient pas résolues avec pourtant des satellites fortement spécialisés. Ney
  14. Bonjour @Erintox, Dans la mesure où nous ne pouvons pratiquement pas résoudre individuellement les étoiles d'une galaxie autre que la nôtre, fut-elle la plus proche, je ne vois pas comment vous pourrez en mesurer le spectre individuel. Essayez malgré tout de voir les publications liées aux observations de deux satellites : Herschel et XMM-Newton, il y a peut-être quelque chose à gratter de ce côté là. Ils sont en capacité de mesurer le rayonnement de grandes étendues gazeuses ou encore d'étoiles en fin de vie. Ces deux satellites ont fortement contribué à comprendre la dynamique des galaxies. Ney
  15. Bonjour @Gildas974, Ce que vous écrivez là n'est pas tout à fait exact. Depuis 1948 par la réflexion théorique, depuis 1964 par un hasard de recherche appliquée au domaine des communications, nous sommes déjà remontés aussi loin qu'il est possible à notre degré technique, jusqu'aux origines de l'Univers, c'est le fond diffus cosmologique encore connu sous le nom de rayonnement fossile. Il nous manque, et nous manquera toujours en l'état des connaissances techniques les 300 premiers milliers d'années de notre Univers. Donc il n'est pas juste de dire que le JWST a permis de remonter le temps plus près de l'origine, c'était déjà fait depuis 1964. Par contre, et parce qu'il a été conçu pour cela, JWST nous montre des objets jusque là restés invisibles. A cela il y a deux raisons : 1) JWST est équipé de détecteurs infra-rouge. Cette gamme de rayonnement électromagnétique permet de "voir" des objets dont le spectre d'émission a glissé vers le rouge puis l'infra-rouge du fait de l'expansion de l'Univers. La vitesse du rayonnement est une constante C, or les distances s'accroissent continuellement par dilatation de l'espace, il en résulte alors un accroissement de la longueur d'onde originelle et par conséquent une décroissance de la fréquence du rayonnement d'autant plus importante que l'objet est loin, donc que les conséquences de la dilation de l'espace sont contributives. La découverte de ce phénomène a été attribuée à Edward HUBBLE en 1929, en réalité c'est bien l'abbé Georges LEMAÎTRE qui avait prédit et déjà mesuré le phénomène dès 1920. (Depuis la vérité a heureusement été rétablie) 2) JWST est doté d'un miroir de bien plus grand diamètre que ses prédécesseurs, donc il capture plus de photons d'un même objet, mais ce plus grand diamètre implique aussi un bien plus grand pouvoir de résolution. C'est la première propriété qui lui permet de détecter des objets plus ténus, mais aussi avec plus de précision grâce à sa plus grande capacité à résoudre les images. La deuxième propriété est que derrière le miroir se trouve une batterie d'instruments beaucoup plus sensibles que ceux précédemment mis en œuvre, avec en particulier un rapport Signal/Bruit bien plus favorable que ce que nous avions précédemment. Le JWST est confronté aux mêmes affres que les astrophotographes de ce forum. Toutes ce raisons font que nous pouvons voir des objets demeurés jusque là cachés car nous avons avec JWST un instrument extraordinairement plus compétent que tout ce qui a déjà été mis en œuvre. Il détecte ainsi des objets du ciel très profond mais par exemple plus "près" de nous (temporellement et/ou spatialement) que des objets connus depuis longtemps. Le fond diffus cosmologique évoqué plus haut en est l'archétype. Bonjour @skud, "C" est une vitesse, et vous avez raison d'affirmer qu'elle est indépassable, il faudrait pour cela une énergie infinie puisque le dénominateur de la formule de l'énergie passerait par la valeur zéro, ce qui en première analyse est impossible en arithmétique. L'expansion de l'univers ne se déroule pas avec déplacement des objets dans le temps. Ce n'est donc pas une vitesse. La dilatation est un phénomène plus proche du statique que du dynamique. L'univers s'agrandit comme un ballon de baudruche se gonfle. A l'intérieur du ballon les proportions de distance des positions relatives sont conservées. la vitesse n'existe donc pas et la comparaison avec C ne peut se faire. Par contre deux objets distants (très distants quand même) peuvent voir leur distance s'accroitre de plus de 300 000 km par seconde parce que l'espace qui les sépare se sera dilaté de plus de 300 000 km durant cette seconde. Dans ce cas le photon parti du premier objet voit sa distance restante croitre chaque seconde plus rapidement qu'il ne peut parcourir cette distance. La conséquence est limpide, le photon n'atteindra jamais plus le deuxième objet. C'est cela qui attend les astronomes d'un futur lointain. Plus ils voudront regarder loin, plus la dilatation de l'espace s'approchera puis dépassera les 300 000 km chaque seconde. Les photons et plus généralement tout rayonnement électromagnétique soumis à cette situation n'arrivera plus jusqu'à eux. Le premier objet du ciel profond à ainsi disparaitre de la vue sera le rayonnement du fond diffus cosmologique, celui là même qui a signalé la sortie du temps obscur des débuts de l'Univers. Cette situation prédite me gratte fort dans le dos. Car si nous n'avons pas trouver d'ici là une théorie d'un niveau d’abstraction supérieur au niveau actuel, nous perdrons définitivement tout espoir de remonter à l'observation mesurable du Big-Bang. Alors je me suis creusé la petite boule de neurones avec la question "Comment faire quand cela arrivera ?" La seule réponse qui me vient à ce jour et que je n'arrive pas à lire dans la littérature, serait d'impliquer le mécanisme d'intrication quantique par exemple. Imaginons que nous arrivions à modéliser et surtout orienter ce mécanisme. Qu'est-ce qui nous empêcherait alors d'associer non localement ( voilà un point d’achoppement avec la physique actuelle qui veut que si intrication existe, ce soit localement au sens de la physique. C'est une porte peut-être vers une élévation d’abstraction du modèle standard) une particule émise dans les temps proches du Big-Bang (donc enfermée dans les temps sombres) à une particule beaucoup plus près de nous donc visible et mesurable et ainsi par observation de cette deuxième particule, modéliser et comprendre l'existence de la première qui lui est associée par intrication. C'est un principe et juste une idée jetée comme cela. Ney
  16. Bonjour @Jorris, Nous sommes piégés sous une goutte froide venue des zones polaires à cause d'un jetstream affaibli, affaiblissement normal à cette saison. Cette goutte froide, placée en très haute altitude avec au dessous des couches basses plus chaudes est un chaudron explosif propice aux orages colossaux. Et comme l'air est bien plus humide maintenant par évaporation maritime accrue liée aux conséquences climatiques, nous allons être confrontés à une pluviométrie bien plus importante mais pas que ... La goutte froide étant placée au dessus des zones méditerranéennes, ce seront momentanément des températures plus froides au sud qu'au nord, des tornades récurentes, des phénomènes cévenols devenus ordinaires, tuba, grêle à très gros nodules vont devenir des situations habituelles et constituer la nouvelle normalité. En l'état nous en avons pour environ jusqu'au 15 juin. Ah! un dernier point dont la probabilité est très faible mais pas nulle. Si la goutte froide trouvait un chemin vers le bas, son air froid rejoindrait le sol puisque plus dense. Regardez le film "Le jour d'après" et vous aurez une idée de ce qui sera. Ney
  17. Bonjour @joriss, Si vous ne l'avez jamais fait cela se comprend. Mais en y allant avec méthode, vous allez voir cela devient facile. 1) Comme vous l'a très bien expliqué @sebseacteam vous téléchargez le groupe de fichiers contenant PlayerOneCamera.dll. 2) Dans le répertoire de FireCapture vous repérez le fichier déjà présent PlayerOneCamera.dll et vous faites un clic de droit dessus. 3) Dans le menu déroulant qui apparait vous cliquez sur "Afficher d'autres options" 4) Dans le nouveau menu à l'avant dernière ligne vous cliquez sur "Renommer". Remarque : vous obtenez le même résultat en faisant un double clic gauche LONG sur le nom du fichier. 5) Le nom de votre fichier apparaitra alors en surligné bleu sauf l'extension .dll 6) Vous cliquez gauche alors juste après le dernier l de dll et au clavier vous ajoutez ".original" et vous validez. 7) Votre fichier s'appelle maintenant "PlayerOneCamera.dll.original". Vous l'avez protégé de l'effacement. 8 ) Il ne vous reste plus qu'à copier le fichier "PlayerOneCamera.dll" que vous venez de télécharger et normalement vous aurez votre caméra dans la liste. Entrainez vous avant en créant un répertoire "Essai", en y copiant n'importe quel fichier puis renommez le pour prendre de l'assurance. Vous allez y arriver. Ney
  18. 22Ney44

    Tesseract

    Bonsoir @epouvox, Bienvenue sur WebAstro. Lorsque vous parlez de tesseract, vous parlez bien d'une figure géométrique connue sous le nom de octachore ou encore plus communément 4-polytope régulier convexe. C'est bien cela ? Si c'est bien cela votre question est une vraie colle dont je ne saisis rien du sens que vous lui donnez, tant elle est trollement absconse. Si par contre il s'agit du logiciel de reconnaissance d'écriture et/ou d'images, sa "traversée" du temps s'est faite par mise à jour régulière, comme pour les autres logiciels. Ney
  19. Bonjour @Basile37, Bonjour et bienvenue sur WebAstro. N'auriez-vous pas inversé les câbles des deux moteurs ? C'est un cas classique. Sinon partez-vous bien d'un tube à l'horizontale pointé vers le Nord avant de mettre sous tension ? Ney
  20. Bonsoir @frazap29, J'ai le sentiment de deviner en filigrane dans votre pensée que le choix du D800 est fait. Vous voulez juste être rassuré que ce choix sera aussi performant qu'une caméra dédiée. De l'avis général pourtant la réponse est clairement NON. Réellement si vous voulez atteindre un très bon niveau de résultat, la caméra dédiée et refroidie est le chemin de la réussite. Ce sont vos cibles privilégiées (et votre capacité budgétaire aussi) qui vont déterminer la taille du capteur. Inutile d'avoir un format APSC et moins encore un Full frame, si votre objectif n'est pas les très grands objets ou les grands champs stellaires. Si tel était sporadiquement le cas, vous pourrez toujours réaliser votre photo par assemblage de tuiles. Ney
  21. Bonjour @NicolasG et bienvenue sur WebAstro. Houla là ! De grâce n'achetez rien avant d'avoir bien fait le tour théorique de la question. Ce serait dommage de devoir tout de suite revendre tout ou partie de vos achats. Dites en un peu plus. En attendant avez-vous lu ou étudié le travail de Thierry LEGAULT ? Si vous débutez total en astrophoto, ce pourrait être une bonne idée. http://www.astrophoto.fr/index_fr.html Vous avez aussi l'excellente chaine "La chaine Astro" de notre ami @CDLC, et plus particulièrement le chapitre "Photographier le ciel profond au télescope (nébuleuses, galaxies, amas d’étoiles...)" Bonne réflexion. Ney
  22. Bonjour @frazap29, Pour aller dans le sens de @Colmic, référence en matière d'astrophoto, la réponse à votre question est OUI. Votre appareil est bien le Nikon 800D ? Si cela est, la population de pixels sur le capteur n'est pas de 45 Mpixels mais de "seulement" 36,3 Mpixels. Est-ce que ce nombre en donnée brute a une importance en astrophoto ? Pas vraiment. Essayez d'étudier votre train optique. Je ne suis pas certain qu'un APN Full Frame derrière une lunette FRA400 soit vraiment adapté, à commencer par un vignettage important. Ce qui va être très très important en astrophoto c'est l’échantillonnage de votre imageur. Cette notion d'échantillonnage est absolument fondamentale pour qui veut aller vers le haut niveau en astrophoto. Le critère nombre de Mpixel a moins d'importance en photographie de portrait ou de paysage, qu'en a l'échantillonnage en astrophoto. Ce nombre de Mpixel n'a pratiquement aucune importance en astrophoto. Aussi je vous invite à aborder puis à approfondir très sérieusement cette notion. Vous allez alors vous apercevoir que pour définir son setup il y a une procédure à respecter qui est en gros la suivante : 1) Définir ses cibles privilégiées. Vous n'allez pas du tout choisir le même matériel selon que vous recherchez les grands champs stellaires, les grandes étendues nébuleuses ou alors des objets plus petits comme les nébuleuses planétaires ou les galaxies lointaines. Vos cibles vont alors vous indiquer le format idéal du capteur. 2) La définition du matériel commencera par définir le capteur et son échantillonnage dépendant de la taille des photosites ou plus exactement de la distance qui sépare le centre de deux photosites voisins. Ensuite viendra le choix du type de caméra, refroidie ou pas. En astrophoto du ciel profond, la chasse principale est au signal qui par essence est faible à très faible. La recherche du signal a tout prix est là pour améliorer la rapport Signal/bruit ( bruit de lecture, bruit électronique, bruit photonique, bruit thermique) aussi il serait dommage de le dégrader en laissant se développer les différentes sources de bruit. Le premier contre lequel il est assez "facile" de se défendre est le bruit thermique à deux titres, en refroidissant la caméra. Le premier titre est qu'en refroidissant la caméra, vous réduisez significativement le bruit thermique, mais aussi, @Colmic l'a souligné, vous normalisez les paramètres de correction par des DOF associés au régime thermique que vous maitrisez. Avec un APN, c'est quasi impossible. 3) Une fois défini l'échantillonnage de votre capteur, vous avez une idée juste de la précision mécanique et de suivi minimum de votre monture. C'est la qualité de votre monture qui fera la qualité de vos prises de vue. 4) Vient enfin le choix de l'instrument qui doit répondre entre autres à deux contraintes : A) L'échantillonnage de l'instrument doit correspondre à l'échantillonnage du capteur. Dans ce sens l'adéquation est bien plus facile à réaliser vue l'offre commerciale. B ) Le poids de votre instrument doit être compatible avec la charge admissible en astrophoto de votre monture. ( la charge en astrophoto est de 70% environ de la charge en visuel). Je vous invite à parcourir le site de Th LEGAULT http://www.astrophoto.fr/index_fr.html ou à consulter son livre http://www.astrophoto.fr/astrophotographie4.html Il y a encore des paramètres complémentaires. D'autres avis viendront. Ney
  23. Bonjour @astrolivier, Peut-être pourriez-vous alors faire un mix des solutions envisagées jusqu'à maintenant : 1) En suivant les tutos vous faites vous-même le nettoyage des lentilles. A cette issue vous mesurerez le nouvel état de vos lentilles. Soit il n'y a aucun progrès, ce que bien évidemment il ne faut pas souhaiter, mais vous savez alors à quoi vous en tenir, soit leur état vous convient et l'étape nettoyage est terminée. La dépense engagée pour cette étape, pourtant cruciale est faible. 2) Dans le cas d'un retour à une situation saine pour les lentilles, vous envoyez votre instrument chez TS qui en fera une maintenance et surtout une collimation au remontage pour une somme sans commune mesure avec un instrument neuf. Au final vous serez alors en possession d'un instrument nettoyé, révisé et collimaté. Une situation très proche du neuf finalement. Ney
  24. Pour passer en dessous des 5 m², la largeur utile sous plus de 1,80m de plafond aurait dû ne pas dépasser 1,71m au lieu des 1,79m. Cela nous fait une variation de 4,65% inférieur aux 5% de tolérance acceptée légalement dans le bâtiment. Aussi ce sont les chiffres du fabricant qu'il faut prendre et non les chiffres de l'importateur dans sa traduction qui a tout intérêt à les maximiser. Il se pourrait alors que même dans le premier cas il n'y ait rien à payer comme taxe. Ney
  25. Bonjour @astrolivier, L'invasion dont vous êtes victime n'est en soi pas trop grave. Le moyen de revenir à une situation saine est un nettoyage dans une solution au Peroxyde d'hydrogène à 3%. 5 minutes de trempage, une chiffonnette de qualité optique et le tour est joué. La seule difficulté est le bon repérage des positions et sens des lentilles au démontage et le bon repositionnement au remontage. Ci dessous vous avez trois tutos qui donnent une bonne idée de la manip. https://www.youtube.com/watch?v=czoisKjBCXY https://www.youtube.com/watch?v=5B-LfYakZ-Y https://www.youtube.com/watch?v=6VriRXxoM_U Bon courage. Ney
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.