Takze az dnes sa postupne objavuje to, co Lytro system vedel nativne (aj bez umelej inteligencie) uz davno :)
Odpovědět1 0
Ani Lytro systém ti bez AI nedopočítá chybějící místa, která nevidí.
Odpovědět1 0
Vtip je ale prave v tom, ze on tie miesta vidi :)
Normalne kamery a fotoaparaty, ked snimaju nieco mimo zony ostrosti (napr. pozadie), vsetky luce, ktore dopadnu z urciteho "kruhu rozostrenia" na jeden pixel snimaca iba spriemeruju. Avsak Lytro, vdaka tomu, ze vnima nielen intenzitu lucov, ale aj smer, z ktoreho pridu, vie z ktoreho bodu pozadia prisiel dany luc. A preto dokaze vidiet aj kusok "za roh" objektu, na ktory je zaostrene. Velkost toho "za roh" je urcena velkostou rozostrenia, ako by sa rozostril dany pixel pozadia pri klasickom snimani beznym snimacom. A v ramci tejto velkosti sa potom v postprocessingu da pozadie "posuvat" voci zaostrenemu objektu.
Je to presne taky isty efekt, ako keby sme mali nejaku myslenu miniaturnu kamerku, pohybujuca sa po ploche vstupneho otvoru v objektive, a pozerajucu sa na zaostreny objekt v popredi. Vdaka pohybu tejto kamerky by sme videli, ako sa pozadie voci "zaostrenemu" objektu posuva. Tento efekt sa zvykne nazyvat "Perspective shifting".
Prakticka ukazka takehoto efektu je napriklad tu:
https://www.3dwiggle.com/3d-image-gallery/lytro-3d/https://www.instructables.com/id/3D-Effect-of-Lytro-Light-field-Camera/
Odpovědět2 0
Ale na nějaký významný posun kamery (bodu, odkud se scéna snímá) to zjevně použít nelze. Čímž nechci říci, že ta technologie není skvělá.
Odpovědět0 0
Ale to pořád mluvíš o místech, která "vidí".
Odpovědět0 0
Já to rozetnu :-).
Lytro toho vidí víc, než běžný fotoaparát, ale stačí to prostě jenom na mírný posun v obrazu. Technologie uvedená v článku ovšem zprostředkuje i posun (kamery) zásadní.
Tak, už se nemusíte "hádat" :-).
Odpovědět0 0
Já požívám Nero od roku 2014 a nero to umí už 4 roky, tak kde udělaly Japonci chybu.
Odpovědět0 0
A můžete prosím uvést název té funkce v angličtině?
Odpovědět0 0
To byl dotaz na mě.
Odpovědět0 0
Jestli se ptáte, tak ano, byl.
Odpovědět0 0
Japonci si mozno iba zmylili tu popisanu funkciu "Moving Stills" s nejakou inou, na prvy pohlad mozno podobnou 4+ rokov starou funkciou ;)
Odpovědět1 0
Něco podobného mě taky napadlo :-).
Odpovědět0 0
Je to dobrý, dokonce hodně dobrý, ale bude to logicky jen pro specifické účely, neboť v takovém případě člověk očekává např. pohyb vody (např. vlny, bylo-li by na fotografii moře) anebo pohyb vegetace ve větru. Pokud se tedy tyto věci v obraze ani nehnou, bude to vypadat divně.
Spíše bych uvítal, kdyby to umělo vytvářet z videa, např. ze 4K videa a výsledkem by bylo Full HD s reálně vypadajícím pohybem kamery.
Odpovědět0 0
Prave naopak, uz som v minulosti videl podobne videa a vyzeralo to skvelo. Akurat tie neboli robene z fotiek, ale boli cele renderovane pocitacom, takze tam ani neboli ziadne rusive artefakty a vyzeralo to (aspon z hladiska toho pohybu) velmi vierohodne.
Odpovědět0 0
Tak jasně, ale...
Věrohodně už dnes vypadá i 3D scéna generovaná v reálném čase (dobrým příkladem jsou např. možnosti Unreal Engine).
Problémy jsou zde ovšem zhruba dva:
1) Pokud je renderovaná celá scéna, tak je prostě stále vidět (oproti skutečnosti), že je renderovaná. I přes svou velmi vysokou věrohodnost.
2) Renderovaná scéna se hlavně musí udělat :-). Nemůžeš si prostě přivést video z dovolené, nějak jednoduše jej sestříhat a zároveň tam mít pokročilé efekty kamerových jeřábů (aniž bych fyzicky jediný použil) apod. A o to mi šlo.
Odpovědět0 0
Z hlediska pohybu kamery 3D renderovaná videa ovšem jako skutečná vypadají, to je bez debat.
Odpovědět0 0