• Welcome to Forum Astronomskog Magazina. Please login or sign up.
 

Messier objekti

Started by Yagodinac, January 02, 2012, 02:46:29 am

Previous topic - Next topic

0 Members and 4 Guests are viewing this topic.

Yagodinac

Možda se Vasko samo loše izrazio, možda je mislio da krivuljama izvlači tamnije i svetlije delove, po želji... To nisu frekvencije kod mono već intenzitet.
Inače i ja se slažem da luminance filteri postoje upravo zbog refraktora i njihove korekcije, kao i UV/IC spektra koji uglavnom pomalo kače CCD kamere. Ali drugi razlog postojanja je bitniji: lepo je znati da možeš da dodatno unaprediš kontrast nekog objekta koji si snimao svega sat vremena - samo činjenicom da ćeš još jedan sat snimati lumu  :) Na DSLR-u to ide teže, ne možeš lumu da rastegneš u obradi toliko jer izlete kojekakvi kolorni artefakti. Svaki moj pokušaj da stvorim monohromatski luminance kanal na DSLR-u je pao u vodu, platforma je naprosto inferiorna za takav pristup. Uostalom, otvorite bilo koju dnevnu sliku nekim DSLR-om u PS-u i pogledajte pojedinačne kanale, pa tu se trista artefakata vidi bez da je bilo kakva obrada i počela.

VaskoGM

Quote from: vlaiv on September 30, 2018, 06:52:53 pm
Ono sto bih naglasio vezano za tvoj post je da ne postoji ni u principu nacin da se iz lume koriguju delovi spektra - senzor ne zna koji je foton bio 400nm a koji 600nm - dobijemo samo sumarni broj fotona za sve frekvencije koje nisu filtrirane.

Quote from: Yagodinac on October 01, 2018, 09:04:21 am
Možda se Vasko samo loše izrazio, možda je mislio da krivuljama izvlači tamnije i svetlije delove, po želji... To nisu frekvencije kod mono već intenzitet. ...

Tako je, zbilja nisam to dobro srocio... Kontrast koji bi se dobio sa L filterom je lako postici u obradi krivama i na nefiltriranoj lumi ali sa takvim benefitom da se zadrze i IR i UV delovi spektra. Ako se u obradi ceo taj snimljen dinamicki opseg dobro uravnotezi, dobijeni luma kanal ce sadrzati maksimum detalja i svetlosti koji je senzor mogao regirstrovati.

Quote from: Yagodinac on October 01, 2018, 09:04:21 am
Na DSLR-u to ide teže, ne možeš lumu da rastegneš u obradi toliko jer izlete kojekakvi kolorni artefakti. Svaki moj pokušaj da stvorim monohromatski luminance kanal na DSLR-u je pao u vodu, platforma je naprosto inferiorna za takav pristup. ...

Naravno kao i u primeru ovog M33, ovo sto gore pise se u sustini odnosi na mono kamere. E sad kod DSLR-a nije tesko izimirati isto s manjim prilagodjavanjem.
Ja npr pri obradi svog full range DSLR stakiranog materijala razdvajam ga u startu na lumu i color. Znaci pravim dva osnovna lejera.
Lumu generisem najjednostavnijim nuliranjem saturacije iz normalnog RGB staka. Njega obradjujem u sustini kao da je CB luma kanal (iako je i dalje u RGB modu) i potpuno nezavisno od color lejera.
Na kraju obrade ih blendujem jedan sa drugim (color/saturation ili luminosity mode u zavisnosti koji je od ta dva lejera osnovni)
Artefakti koje pominjes uglavnom se nece nekontrolisano pojavljivati ako se sve odrzi pod kontrolom.

Jos jednom samo da pojasnim zato uopste ovo sve isticem, pa zato jer primecujem da se L filter redovno koristi kod mono kamera za luma lejer ili kod modifikovanih DSLR-a oni ACF filteri bez obzira koji opticki sistem teleskopa se korsiti.
To je ono sto nalazim kao pogresnu praksu osim kada su refraktori u pitanju, naravno.
Mak180 f/15 • MN190 f/5.25 • AZ-EQ6...
EOS 450D(m) • ASI120MM-S • QHY5V+9x50 AG • Baader LRGB...
Hyperion • ES • Nikon • Sterling...
www.aristarh.rs
Flickr galerija

Yagodinac

Ja najmanje artefakte u B/W dobijam kad odaberem Image>mode>grayscale. Kasnije malo prilikom mešanja layera bude čudnih pitanja od strane PS, ali B/W prebaciš u RGB i sve onda OK.
Ako krenem desaturate ili još gore Image>adjustemnt>black&white pa da pojedinačno dižem slajdere... Tu ispadne mnogo šuma.

vlaiv

Izvlacenje lume iz RGB-a - imam ja jednu ideju :D

Mislim, nije ideja, koliko razmisljanje na temu, jos ga nisam "uoblicio" u funkcionalan algoritam, al evo dokle sam stigao (paznja, teorija sledi, unapred se izvinjavam ako smaram :D )
Inace, ova tema je interesantna i ljudima sa mono kamerom - nacin da se izvuku dodatni Lum podaci iz R, G i B frejmova koji bi se kombinovani sa vec snimljenom lumom u cilju postizanja veceg SNR-a.

Uzmimo za pocetak idealan slucaj, R, G i B filtere koji tacno dele opseg 400-700nm (recimo 400-500,500-600,600-700 mada ne mora biti striktno tako, bitno je da se opsezi ne preklapaju, Baader filteri, na primer, su jako blizu ovome).

Iz R, G i B frejmova se dobija isti rezultat (u smislu kolicine signala od mete) ako se R, G i B frejmovi saberu - totalni signal ce biti jednak sumi tri parcijalna signala (pod gornjim uslovom). Problem je sto ovaj nacin dodavanja signala nije optimalno resenje. Signal je sigurno kako treba, ali se sav sum takodje dodaje a to u nekim slucajevima nije najbolje resenje.

Posmatrajmo tri slucaja:

1. Nema signala ni u jednom kanalu
2. Ima signala u sva tri kanala
3. Ima signala u samo jednom kanalu

(slucaj kada ima signala u dva kanala ce biti ocigledan, a takodje za sada ne razmatramo nivo signala po kanalima, nego podrazumevamo vrednosti 0 i 1 - odnosno ima/nema).

Pretpostavimo takodje da svaki kanal nosi jednaku kolicinu suma bez obzira da li ima signala ili nema (ni ovo striktno nije tacno, al za pocetak razmatranja mozemo da kazemo da posmatramo sum citanja, sum svetlosnog zagadjenja i termalni sum). Kako izgleda signal i sum u ova tri slucaja (signal cemo oznaciti sa 0 i 1 a sum sa S):

1. 0 / S, 0 / S, 0 / S
2. 1 / S, 1 / S, 1 / S
3. 1 / S, 0 / S, 0 / S

Ako sabiramo prvi slucaj, rezultat sumiranja ce da ima signal i sum : 0 + 0 + 0 / koren(3* S^2) = 0 / 1.732 * S
Znaci u prvom slucaju smo pozadinu koja ne sadrzi nista od signala napravili da bude sa vecim sumom nego na pojedinacnim kanalima!

U slucaju 2, sabiranje ce dati sledece:
1+1+1 / koren(3*S^2) = 3 / 1.732 * S
U ovom slucaju smo uspeli da dobijemo bolji odnos signal sum nego na pojedinacnim kanalima

U slucaju 3, sabiranje daje:

1+0+0 / koren(3*S^2) = 1 / 1.731 * S
odnosno opet smo dodali vise suma nego sto treba jer je signal ostao isti!

Za slucaj dva kanala ima signal - dobija se poboljsanje.

Zato predlazem "preliminarno" pravilo sabiranja kanala da bi se dobila luma (pravilo treba doraditi za slucajeve kada su nivoi suma i nivoi signala razliciti po kanalu, a to nije jednostavno):

Ako nema signala ni u jednom kanalu, uzima se srednja vrednost - na ovaj nacin ce sum lume biti za x1.732 puta manji nego sum pojedinacnog kanala, a signal ce biti ocekivanih 0 (srednja vrednost od 0 je 0).
Ako u nekim kanalima ima signala - onda se uzima suma samo onih kanala koji imaju signal, dok kanal koji nema signal ne ucestvuje u sumi uopste, pa ce u slucaju:
1. jedan kanal ima signal - luma je samo taj kanal na tom mestu
2. prvi i drugi kanal imaju signal - luma na tom mestu je prvi + drugi
3. sva tri imaju signal - luma na tom mestu je suma sva tri.

Pitanje je naravno kako odrediti koji kanal ima signal a koji nema? Predlog - svaki kanal se bluruje sa "srednja vrednost" (ne gaussian, vec median ili average) blur-om odredjenog precnika (tipa 30-50px?) i "oduzme" se pozadinski nivo osvetljenja. Onda se porede vrednosti sva tri kanala za dati piksel, i ako su sva 3 ispod odredjene vrednosti (ovo se odabere da bude nize od minimuma sve tri slike gde procenimo da ima signal uopste) - ide prosek piksela, inace u sumu ulaze svi kanali koji datu vrednost imaju vecu od granicne.
Teleskopi: GSO RC8", TS80 F/6 photoline, SW dob 200/1200, SW Evostar 102 ahromat, StellaMira ED110
Montaže: HEQ5, AZ4, SW AzGTI
Kamere: ASI1600MMC, ASI178MCC, ASI185MC

AstroShomy

Vlaiv, pošalji mi mejl da ti pošaljem jedan rad sa astro workshopa na Vidojevici približno na tu temu.
EdgeHD 11
EQ8
Celestron Off-Axis Guider for EdgeHD, SX Lodestar X2
Moravian Instruments G4-9000
Astrodon Filters LGRB, Ha, OIII, SII 5nm

AD Aristarh Kragujevac

VaskoGM

Mak180 f/15 • MN190 f/5.25 • AZ-EQ6...
EOS 450D(m) • ASI120MM-S • QHY5V+9x50 AG • Baader LRGB...
Hyperion • ES • Nikon • Sterling...
www.aristarh.rs
Flickr galerija

vlaiv

Teleskopi: GSO RC8", TS80 F/6 photoline, SW dob 200/1200, SW Evostar 102 ahromat, StellaMira ED110
Montaže: HEQ5, AZ4, SW AzGTI
Kamere: ASI1600MMC, ASI178MCC, ASI185MC

Yagodinac

A propo gornje priče ako sam dobro razumeo ispada da sabiranje R, G i B kanala daje najbolji rezultat? Bolji nego pojedinačni luminance?
Ali u svakom kanalu imaš po 3x manje signala (u idealnom slučaju) pa kad se sabere to je taj isti signal kao i u luma. Ali termalni i šum čitanja prilikom RGB sabiranja se takođe množe sa 3, dok u luma kanalu imaš jednom taj šum.

Ovo me podseća na čuvenu dilemu da li je na DSLR-u bolje tri snimka po deset sekundi pa izvlačenje, ili jedan od trideset...

vlaiv

Quote from: Yagodinac on October 03, 2018, 11:08:02 am
A propo gornje priče ako sam dobro razumeo ispada da sabiranje R, G i B kanala daje najbolji rezultat? Bolji nego pojedinačni luminance?
Ali u svakom kanalu imaš po 3x manje signala (u idealnom slučaju) pa kad se sabere to je taj isti signal kao i u luma. Ali termalni i šum čitanja prilikom RGB sabiranja se takođe množe sa 3, dok u luma kanalu imaš jednom taj šum.

Ovo me podseća na čuvenu dilemu da li je na DSLR-u bolje tri snimka po deset sekundi pa izvlačenje, ili jedan od trideset...


Definitivno je Luma bolja za istu totalnu duzinu ekspozicije od R+G+B u svakom slucaju (recimo luma 10minuta i svaki od R, G i B po 10 minuta) bas zbog dodatnih sumova, i u pravu si, podseca na dilemu (koja po meni nije ni dilema) vezanu za broj snimaka vs duzina.

Ista prica, Luma ce uvek biti bolja od zbira kanala, ali tacno koliko bolja zavisi od vise parametara - nivoa LP-a, suma citanja, termalnog suma i nivoa signala mete (isto tako ce manji broj duzih snimaka uvek biti bolji, ali u odredjenom trenutku a u zavisnosti od uslova razlika postaje minimalna).

No moja prica je bila vezana za najbolji nacin kombinovanja R, G i B signala da se dobije Luma iz toga, i tu nije uvek najbolji sistem R+G+B i zavisi od odnosa signala uhvacenih po pojedinacnom kanalu. Recimo ako snimamo Ha objekat, luma na njemu je najbolja ako se uzme samo R kanal tamo gde ima neceg, a prosek R, G i B tamo gde nema niceg - prazno nebo koje racunamo da je 0 u srednjoj vrednosti pa je suma 0+0+0, jednaka prosecnoj vrednosti 0+0+0/3, obe su nula pa nema razlike koji metod se korisiti a sum ce biti tri puta manji ako ga podelimo sa 3. Tamo gde ima signala uzecemo signal iz R kanala al necemo dodavati sum iz G i B kanala (jer signala svakako nema za Ha metu u G i B).

Problem sa primenom ove logike za OSC kamere je u tome sto vecina osc kamera nema striktno odsecene delove spektra nego R, G i B pokrivaju uvek ceo spektar (iako jako mali procenat van svog "domena" tipa manje od 5 posto). Zato sam napomenuo da algoritam nije kompletan, jer u nekim slucajevima treba "tezinski" sabirati kanale a to zavisi od konkretnog SNR-a svakog kanala na tom mestu. Za svaki piksel mozemo znati okvirno SNR - jedan metod recimo bi bio - prilikom stackovanja napravimo 2 stacka - jedan je prosecna vrednost stacka (normalna slika), drugi je standardna devijacija. Uzmemo normalan stack, odradimo average blur sa nekim precnikom (tipa 10tak piksela) i oduzmemo pozadinski signal i podelimo sa stackom standardne devijacije. To ce nam dati "SNR mapu" za svaki kanal. I onda na osnovu odnosa SNR-a za svaki piksel, sabiramo u odredjenom procentu, pa bi Ha gore mogao na nekim mestima da izgleda 98% R + 1% B + 1%G a na drugim mestima (gde nema signala u R i SNR-ovi su jednaki, odnosno blizu 0 za sva tri kanala) - 33.33% R + 33.33% B + 33.33% G.
Teleskopi: GSO RC8", TS80 F/6 photoline, SW dob 200/1200, SW Evostar 102 ahromat, StellaMira ED110
Montaže: HEQ5, AZ4, SW AzGTI
Kamere: ASI1600MMC, ASI178MCC, ASI185MC

VaskoGM

Ako koristimo LRGB sistem onako kako je odredjen da bude a to je da je ceo dinamicki opseg zapravo samo u lumi, dok je RGB signal samo informacija o boji - hroma. Zato lume treba imati sto vise, jer je primaran kanal. Tu su svi detalji, tu je ceo dinamicki opseg snimljen - od crne do bele. RGB/Color je sekundarna informacija i moze da ima dosta manje ukupnog signala nego L sto treba da ima.

S druge strane imamo color kamere i kod njih nema izbora nego da se iz sume RGB signala generise luma. To je jedan od razloga zasto je npr DSLR inferioran u odnosu na mono kameru.

Quote from: Yagodinac on October 03, 2018, 11:08:02 am
Ovo me podseća na čuvenu dilemu da li je na DSLR-u bolje tri snimka po deset sekundi pa izvlačenje, ili jedan od trideset...

Kad si vec pomenuo...  ;D
- U vecem broju slucajeva 3 x 10s nije bolje od 1 x 30s
najjednostavniji razlog je sto se vise vremena daje bledjim/redjim fotonima da napune senzor - fotoni koji stizu u intervalu duzem od zadate ekspozicije. Znaci gledamo metu i na osnovu nje biramo duzinu eksp. A tu su opet i svetli, kompaktni objekti koji sasvim optimalno mogu da se snime i sa vise kracih eksp.
Mak180 f/15 • MN190 f/5.25 • AZ-EQ6...
EOS 450D(m) • ASI120MM-S • QHY5V+9x50 AG • Baader LRGB...
Hyperion • ES • Nikon • Sterling...
www.aristarh.rs
Flickr galerija

Yagodinac

Ja tek sad kapiram da Vlaiv misli na OSC kamere a ne mono CCD, onda ta dilema ostaje potpuno validna, kod mono dilema ne postoji - luma je zakon.

vlaiv

Quote from: Yagodinac on October 03, 2018, 01:33:06 pm
Ja tek sad kapiram da Vlaiv misli na OSC kamere a ne mono CCD, onda ta dilema ostaje potpuno validna, kod mono dilema ne postoji - luma je zakon.


Pa ovo sto pricam moze biti primenjivo i na mono kamere, recimo da uzmemo i snimimo 1 sat Lume i po 1 sat R, G i B, kao sto bi normalno uradili za LRGB sliku sa mono kamerom (ili vec neka druga kombinacija duzine ekspozicije, al to nije bitno).

Ono sto obicno ljudi rade jeste da uzmu Lumu iz L kanala a boju iz RGB i "bace" Lumu iz RGB-a. Ono sto bi bilo pametnije je: Uzeti boju iz R, G i B ali "sinteticku" lumu iz ta tri kanala ne baciti nego na odredjeni nacin iskombinovati sa Lumom iz L kanala radi postizanja boljeg SNR-a u lumi.

Sto se tice kombinovanja snimaka razlicitog SNR-a tu vec imam razradjen algoritam (kompletno) koji optimizuje doprinose pojedinacnih snimaka u zavisnosti od SNR-a svakog snimka. Znaci moze se iz R, G i B napraviti odredjen broj L snimaka kombinovanjem (ili prosto R+G+B ili gornjim metodom koja malo optimizuje rezultat) i ti snimci ubaciti u stack sa redovnim L i upotrebiti algoritam koji optimizuje "doprinose" pojedinacnih sub-ova. Na kraju ce se dobiti nesto tipa 1.2h Lume umesto 1h lume (ili kolko vec zavisi od kvalitet RGB sinteticke lume).
Teleskopi: GSO RC8", TS80 F/6 photoline, SW dob 200/1200, SW Evostar 102 ahromat, StellaMira ED110
Montaže: HEQ5, AZ4, SW AzGTI
Kamere: ASI1600MMC, ASI178MCC, ASI185MC

Luger


Kenza

Quote from: Yagodinac on October 03, 2018, 11:08:02 am
Ovo me podseća na čuvenu dilemu da li je na DSLR-u bolje tri snimka po deset sekundi pa izvlačenje, ili jedan od trideset...


Za DSLR ne znam, ali kod CCD kamere iz ličnog iskusktva znam da je jedna duža ekspozicija bolja od više kraćih. Jednostavno je čistija i daje više detalja. Naravno, duža ekspozicija traži tamno nebo i stabilnu montažu/praćenje (tu podrazumevam i pravilno balansiranje koje je od enormne važnosti). Ja u BG-u zbog svetla ne mogu da idem iznad 900 sekundi (opet zavisi od objekta koji slikam) dok na Debelom Brdu npr.  guram i do 1800 sek. Ovo sve se naravno odnosi na relativno svetle i tamne objekte za koje da bi se izvukli određeni detalji nepohodne su dugačke ekspozicije. Što se tiče svetlih objekata (M42, M31 itd..) njih ionako slikamo sa dva različita seta ekspozicija.
Astrophysics 900 GTO/Berlebach Planet 🔸 CFF 140 Oil spaced triplet🔸Celestron C11 XLT 🔸 Atik 4000M 🔸 QSI 690 WSG

Yagodinac

Isto tako je i sa DLSR-om, jer se u desnom delu histograma krije mnogo više nijansi. Doduše tu je i šum matematički gledano veći, ne mogu sad da iskopam link koji to obrazlaže detaljno, ali je to u praksi nebitno pošto se šum raspodeljuje na više tih nijansi i mnogo manje bude kasnije uočljiv. Zapravo tako je i nastala tehnika ETTR (expose to the right).