Wystarczy rzut oka na fora, by przekonać się że użytkownicy profesjonalni zajmujący się m.in. obróbką wideo, którzy postawili na platformę sprzętowo-programową Apple, są mocno zaniepokojeni kierunkiem w którym zmierza „ich” firma. Czarę goryczy, zdaje się, przelał najnowszy Final Cut Pro. Obawy i zarzuty można streścić w jednym zdaniu: Apple wyraźnie idzie w kierunku użytkownika masowego, nie przejmując się zbytnio niszowym użytkownikiem korporacyjnym/profesjonalnym. Ostatnie produkty są tego najlepszym potwierdzeniem. iOSacja nowego MacOSa (Lion), programy takie jak Final Cut Pro (wykorzystywane do profesjonalnego montażu wideo), które zaczynają przypominać to, co można zakupić za parę dolarów w App Store, powoduje konieczność postawienia sobie pytania przez rynek pro – co dalej? Czy warto inwestować w platformę, która zaczyna wyraźnie oddalać się od potrzeb profesjonalistów, bardzo wymagających użytkowników, dla których kluczową sprawą jest przewidywalność i stabilność rozwoju platformy, narzędzi które używają na co dzień w pracy. Zwrot Apple w kierunku masowego użytkownika jest faktem, to masowy rynek generuje gigantyczne przychody, rynek pro to margines. Sytuację próbuje wykorzystać wielki rywal, skonfliktowana z Apple firma Adobe. Twórca Flasha oraz aplikacji do profesjonalnej obróbki obrazu, od razu zareagował na setki (bez mała) negatywnych opinii dotychczasowych użytkowników i zaoferował znaczne upusty na swoje produkty dla tych, którzy korzystali z oprogramowania Apple. Wiele osób zażądało od firmy z Cupertino zwrotu pieniędzy, niektórzy stwierdzili, że czas zmienić platformę sprzętową. Adobe ma dla nich propozycję, bardzo kuszącą propozycję – obniżkę ceny wybranych narzędzi o 50%. W rozwinięciu możecie przeczytać oficjalne stanowisko Adobe…
Dobrze znamy ciekawe efekty techniki HDR w przypadku fotografii cyfrowej. Zresztą nie tylko – pojawiły się także klipy zarejestrowane w ten sposób, gdzie wykorzystano lustrzanki cyfrowe. W tym jednak wypadku chodzi o sprzęt „dedykowany”, a konkretnie kamerę AMP, sprzęt wyposażony w trzy sensory, na tyle lekki, że da się go w miarę wygodnie przenosić z miejsca na miejsce. Kamera otrzymała pojedynczy obiektyw umożliwiający nagrywanie wideo 1080p z prędkością 24 lyb 30 klatek, zapis nieskompresowanego obrazu w RAW, który dokonuje się na szybkim dysku SSD. Urządzenie kompatybilne jest z systemem Nikona F-Mount. Nowy AMP pozwala na 256GB pamięci SSD zapisać do 30 minut materiału, w przypadku wideo rejestrowanym w 24fps oszczędzamy nieco miejsce (więcej potrzeba, co logiczne, na zapis w 30 fps). Omawiany produkt trafi do sklepów pod koniec lata, na razie nie podano ceny, wiadomo tylko tyle, że nie będzie to sprzęt masowy (przygotujmy się zatem na cenę z wieloma zerami po przecinku). Jak się prezentuje wideo wysokiej rozdzielczości w HDR nagrane za pomocą omawianego sprzętu? Popatrzmy…
Wygląda na to, że firma z Cupertino przesadziła z opłatami licencyjnymi dotyczącymi nowych technologii: Air Play oraz Thunderbolt. W przypadku pierwszej z wymienionych, producenci sprzętu AV nie palą się do wnoszenia 50$ haraczu (w niektórych urządzeniach japońskich wytwórców sprzętu AV można dokonać upgrade, co wiąże się z koniecznością zapłaty wyżej wymienionej kwoty). To cena zaporowa, szczególnie gdy spojrzymy na nią przez pryzmat taniejącej z roku na rok elektroniki użytkowej (obecnie kompletnie wyposażone jednostki centralne kina domowego to wydatek rzędu maks. 500-600$). Dziesięć procent ceny samego sprzętu, to przyznacie, spora przesada. Co więcej, owe 50$ to opcja, która ma na celu obniżenie ceny wyjściowej danego urządzenia, bo jak informują producenci implementacja Air Play w produkcie kosztuje ich w sumie 100$! To gigantyczny koszt – w końcu mówimy tutaj o zwykłym rozszerzeniu funkcjonalnym, pozwalającym na bezprzewodowy przesył dźwięku (w przypadku obrazu sprawa nie jest jednoznaczna) do zestawu audio. Coś, co dostępne jest za darmo w ramach DLNA/uPnP w przypadku innych rozwiązań sprzętowych (odtwarzaczy osobistych, serwerów NAS etc). W przypadku szybkiego interfejsu Thunderbolt to przysłowiowy strzał w stopę.
Mitsubishi od jakiegoś czasu eksperymentuje z wielkoformatowymi wyświetlaczami oraz nietypowymi konstrukcjami o sferycznych kształtach opartych na technologii OLED. W zeszłym roku spore wrażenie robił gigantyczny ekran złożony z tysięcy małych wyświetlaczy (konstrukcja kafelkowa) organicznych. Najnowszym opracowaniem jest gigantycznych rozmiarów sferyczny wyświetlacz o średnicy 6 metrów, składający się z 10 363 małych ekranów OLED. Kula przedstawia obraz naszej planety i jest częścią projektu edukacyjnego Tsunagari Geo-Cosmos (instalacje można podziwiać w National Museum of Emerging Science and Innovation w Tokio). Dzięki technologii OLED obraz jest czytelny bez względu na porę dnia, zachowuje wysokie parametry kontrastu, jasności oraz ostrości co ma zasadnicze znaczenie, pozwalając na oglądanie prezentacji przez wielu zwiedzających w godzinach otwarcia placówki. Sferyczny wyświetlacz można podziwiać z każdej strony, umieszczono go w taki sposób, aby jak najwięcej osób mogło bez przeszkód podziwiać obraz nie zasłaniając go sobie. Poniżej można zobaczyć krótki klip prezentujący tytułowe urządzenie.
Na wstępie warto podkreślić, że przesył obrazu za pomocą HDMI może się odbywać (zgodnie ze specyfikacją) maksymalnie na odległość 10 metrów. Stosowanie dłuższego okablowania jest obarczone ryzykiem problemów z obrazem / dźwiękiem, generalnie nie zaleca się połączeń dłuższych niż 15-20 metrów. Oczywiście można stosować wzmacniacze sygnału HDMI, ale to dodatkowy koszt, poza tym urządzenia tego typu są aktywne, co oznacza konieczność podłączenia ich do prądu. Nowa specyfikacja złącza DisplayPort oferuje nowe, niespotykane na rynku możliwości, które zainteresują przede wszystkim instalatorów. Możliwość zastosowania jednolitego połączenia o długości ponad 30 metrów to coś, co może znacząco ułatwić projekt instalacji AV w danej lokalizacji. Oczywiście ktoś, kto kładł kable służące przesyłowi obrazu i dźwięku od razu zada pytanie: jak udało się skonstruować kabel, który pozwoli na zachowanie parametrów jakościowych na takiej długości?
Chęć wprowadzenia wszędzie gdzie się tylko da, ekranów (dotykowych i bezdotykowych) do AGD jest zauważalnym od paru sezonów trendem, któremu jak widać nie są w stanie oprzeć się producenci domowych sprzętów, które do tej pory raczej nie kojarzyły się z multimediami. Tak jest w przypadku omawianego telewizora zamontowanego w lustrze. Możliwość rzutowania półprzeźroczystego obrazu na szklanej powierzchni lustra to coś, co zdaniem producentów/projektantów ma przykuć uwagę (bogatych) konsumentów. Czy jednak telewizor w lustrze jest czymś, bez czego nie możemy się obyć? Dzisiaj półprzeźroczyste obrazu rzutowane na przednią szybę pojazdu, opracowane przez koncerny transparentne wyświetlacze OLED/LCD to ostatni krzyk mody, coś co w wielu dziedzinach znajdzie zastosowanie, co w przypadku wspomnianej motoryzacji może przyczynić się do poprawy orientacji na drodze.
Wygląda na to, że na konferencji E3 nie tylko nie powiedziano wszystkiego o nowym systemie rozrywkowym Nintendo, ale wręcz powiedziano parę rzeczy nie do końca… prawdziwych. Po pierwsze wątpliwości pojawiły się odnośnie ilości kontrolerów/tabletów jakie można podłączyć do pojedynczej stacji bazowej. Okazuje się, że teoretycznie może być ich więcej, to znaczy nie jeden, a dwa. Na razie (i to jest informacja pewna) producenci gier będą tworzyć oprogramowanie pod jeden kontroler. Druga sprawa dotyczy tego, czy przypadkiem Wii U to nie jest takie „dwa w jednym”: system stacjonarny, który może przekształcić się w sprzęt przenośny? Na konferencji mówiono wyraźnie – to nie jest konkurencja dla PSP, iPhone/iPoda/iPada czy własnego 3DS. Okazuje się, że Nintendo jeszcze w trakcie projektowania Wii myślało o drugim, pomocniczym ekranie (patrząc przez pryzmat DS nie jest to specjalnie zaskakujące), ale wtedy uznano że cena sprzętu będzie stanowczo za wysoka. Następnie, projektując Wii U pojawił się pomysł stworzenia samodzielnego kontrolera/tabletu/konsoli, który wyposażony jest w baterię, własny system i może działać całkowicie samodzielnie. W którymś momencie szefostwo uznało jednak, że taki system nie tylko może okazać się za drogi, ale także pojawi się całkiem sporo problemów technicznych (co podroży prace nad całością projektu) związanych z działaniem kontrolera. Stąd decyzja o tym, że nowe urządzenie ma być po prostu kontrolerem, z drugim ekranem, sprzętem działającym w oparciu o stacjonarną bazę z wszelkimi niezbędnymi układami, komunikującym się z nią za pomocą łącza bezprzewodowego.
To ważna informacja, szczególnie dla posiadaczy kamer wideo HD, ale także użytkowników kamerek internetowych, tunerów HD, a nawet właścicieli aparatów cyfrowych. Nowa specyfikacja wprowadza poważne rozszerzenie funkcjonalne standardu USB video class 1. Od teraz każdy sprzęt tego typu, natywnie będzie obsługiwał kodowane wideo w H.264. Co to oznacza w praktyce? Uwolnimy się od konieczności dekodowania obrazu na sprzęcie (komputerze), całość przejmie na siebie urządzenie zapisujące wideo. Dzięki temu oszczędzimy pasmo na magistrali USB dla innych zadań / sprzętu. Dekodowanie pozwoli na dystrybucję obrazu do wszelkich innych urządzeń za pomocą dowolnego kanału dystrybucji (przewodowego bądź bezprzewodowego). Nowe urządzenia kompatybilne ze specyfikacją H.264 Payload pozwolą na autonomiczne wykorzystanie elektroniki użytkowej, (dzięki standaryzacji) na pełną kompatybilność w tym zakresie wielu platform sprzętowych. Sprzęt zgodny z nową specyfikacją powinien pojawić się na rynku jeszcze w tym roku.