To by była dopiero rewolucja. Zamiast ładować set gigabajtowe karty, tworzyć odtwarzacze z pół tera w obudowie (czytaj: płacić horrendalne kwoty za coś, co niestety obecnie wydaje się absolutnie konieczne – za dużą przestrzeń na dane), zmniejszyć zapotrzebowanie zmniejszając wielkość plików hi-resowych do wartości kojarzących się z zapisem MP3. Czy to w ogóle wykonalne, możliwe? Ludzie z Meridiana są przekonani, że ich najnowszy pomysł pozwoli na taką właśnie redukcję hi-resów. Co wiemy zatem o tej, potencjalnie rewolucyjnej, technologii? MQA to bezstratne kodowanie, które daje możliwość zapisu plików zapisanych pierwotnie jako FLAC, ALAC lub WAV o parametrach 44,1 kHz aż po 768 kHz, 24 / 32 bitach oraz ich dekompresji, przy bardzo ograniczonym zapotrzebowaniu na przestrzeń / transfer. Ma to być idealne rozwiązanie w przypadku serwisów streamingowych, które mogłyby zaoferować strumieniowanie muzyki o jakości masterów bez konieczności wykupu przez użytkownika ogromnej paczki danych, czy wręcz nielimitowanego dostępu (co może okazać się problematyczne, bo w wielu krajach po prostu nie ma takiej możliwości, oferty na rynku). Ważne, nowy sposób kompresji dźwięku miałby zadebiutować już na początku 2015 roku. Pytanie, z czym wiąże się wprowadzenie takiego zapisu, czy po stronie klienta konieczna jest odpowiednio duża moc obliczeniowa (tak to, z tego co udało mi się ustalić, będzie wyglądało), jak to wygląda w kwestii kompatybilności (czy wystarczą aktualizacje oprogramowania w urządzeniach?)??? To kluczowe pytania, odnośnie komputerów pewnie nie będzie problemu z szybkim wdrożeniem, co innego odnośnie handheldów oraz odtwarzaczy sieciowych, innych źródeł. Na razie oficjalna strona projektu bazuje głównie na ogólnikach. Warto poczekać na oficjalną premierę oraz podanie pełnej specyfikacji MQA. Ma to być rozwiązanie bezkompromisowe i na to liczymy, bo najwyższa jakość dźwięku bez ograniczeń pod kątem transferu, przestrzeni nośników jest tym, na co wszyscy czekamy… Poniżej, krótka prezentacja wideo.
Dwa miesiące po zaprezentowaniu na targach High End Audio w Monachium nowatorskiej technologii, nazwanej SAM (Speaker Active Matching), Devialet sukcesywnie rozszerza listę modeli kolumn głośnikowych, które czerpią korzyści z tego przełomowego rozwiązania. Kompatybilnością z SAM może pochwalić się już 17 producentów głośników, włącznie z tak prestiżowymi markami jak Bowers & Wilkins, ProAc, ELAC, Magico, Vivid Audio, Kef, Focal, Wilson Audio, Sonus Faber… Od bestsellerowych Kef-ów LS50 do prestiżowych Bowers & Wilkins 800D, Magico Q3 i Wilson Audio Sasha 2 urządzenia Devialet wyposażone w technologię SAM jako jedyne pozwalają ujawnić pełen potencjał dowolnych high-endowych kolumn głośnikowych. Aby umożliwić użytkownikom oddanie głosu na wybrane kolumny głośnikowe, przygotowana została strona internetowa voteforsam.devialet.com. Modele najczęściej wskazywane przez głosujących jako pierwsze skorzystają z możliwości płynących z technologii SAM. Listę głośników zgodnych z SAM można znaleźć na wspomnianej stronie, jak również na profilu firmy Devialet na firmowym fanpage’u. Więcej o technologii SAM w rozwinięciu newsa…
Postaramy się jak najszybciej przetestować to rozwiązanie w redakcji. Pisaliśmy na temat tytułowego multiroomu w poprzednich newsach (np. tutaj), przypomnę tylko że chodzi tutaj o kompleksowe rozwiązanie wielostrefowe, oparte na urządzeniach strumieniujących dźwięk, odtwarzających (końcówki) z własnym, autorskim oprogramowaniem, pełnym wsparciem dla systemów mobilnych etc. Unikalną cechą jest interfejs oparty na rozpoznawaniu mowy, pozwalający na najbardziej naturalną obsługę urządzeń za pomocą komend głosowych. Producent sukcesywnie wprowadza nowe funkcjonalności, co dobrze świadczy o jakości wsparcia dla tej platformy. Wraz z wersją oprogramowania oznaczoną jako 23134 VOCO uruchomiło nie tylko natywny przewodowy oraz bezprzewodowy przesył danych w formacie FLAC 24 bity i 48 kHz, ale także rozwojową wersję beta w jakości FLAC 24 bity i 96 kHz (dla połączeń ethernet), która będzie sukcesywnie dopracowywana w najbliższych tygodniach.
Obecnie takimi możliwościami dysponuje jedynie śp Squeezebox, który jak wiemy nie jest już od dawna oferowany na rynku – niestety Logitech porzucił to rozwiązanie na rzecz dużo prostszego, pozbawionego możliwości poprzednika Ultimate Ears (dużo mniejsze możliwości od strony oprogramowania, brak pluginów, brak 24/192 i wielu innych elementów, które są dostępne w ramach SB). Także popularny Sonos nie kwapi się z wprowadzeniem obsługi hi-resów w swoim systemie (szkoda). Innymi słowy VOCO staje się obecnie jedynym tego typu rozwiązaniem na rynku, bo trudno za konkurencję uznać wspaniałe, ale należące do zupełnie innego segmentu (high-end, właściwie trudno w tym kontekście mówić o wielostrefowych systemach, chociaż… oczywiście, da się takie coś stworzyć w oparciu o niektóre z wymienionych urządzeń) streamery/all-in-one Devialeta, Linna czy Naima.
Dodatkowo VOCO przebudowało aplikację dla urządzeń mobilnych. Patrząc na obrazki, widać że klientom zaproponowano bardzo przejrzysty, ułatwiający szybką nawigację interfejs, dodatkowo w atrakcyjnej wizualnie formie. Jak już wspomniałem, to rzecz która jest tylko jednym ze sposobów obsługi opisywanego rozwiązania. Zapewne wielu użytkowników będzie starało się skorzystać z dobrodziejstw sterowania za pomocą głosu, tak czy inaczej nawigowanie po rozległych zbiorach wymaga jakiegoś front-endu, a tutaj najlepszym rozwiązaniem pozostaje wg. mnie obsługa systemu za pomocą dotyku, gestów oferowana w dedykowanych aplikacjach na handheldy. To najkorzystniejsza, najskuteczniejsza metoda sprawnego poruszania się po rozbudowanych kolekcjach muzyki zgromadzonej na serwerach NAS, czy komputerach. Dodajmy do tego możliwość integracji z dotychczasowym systemem audio, a otrzymamy pełen obraz możliwości multiroomu VOCO. Poniżej, dla przypomnienia, parę informacji na temat systemu VOCO, krótki opis rozwiązania wielostrefowego, które obecnie nie ma odpowiednika (możliwości, funkcjonalność) na rynku…
Co prawda pozostaje jeszcze LG, ale nie oszukujmy się – ostatni z wielkich producentów tego typu ekranów zapewne niebawem również podejmie decyzję o zakończeniu produkcji wyświetlaczy plazmowych. Samsung, podobnie jak Panasonic wcześniej, uznał że dalsze wytwarzanie telewizorów PDP nie ma obecnie ekonomicznego uzasadnienia. Technologia jest znacznie kosztowniejsza od LCD, a malejące ceny wielkich ekranów nie pozwalają na utrzymywanie takiego stanu rzeczy – ciekłokrystaliczne telewizory są po prostu opłacalne, czego nie da się powiedzieć o plazmach. Niestety oznacza to, że do momentu popularyzacji OLEDowych ekranów (co nie nastąpi, po pierwsze, szybko, po drugie pojawiają się już głosy, że ta technologia w ogóle nie ma szans na zastąpienie elcedeków) prym będą wiodły bardzo udoskonalone, ale nadal nie pozbawione wad wyświetlacze ciekłokrystaliczne. Pewnych rzeczy po prostu nie da się obejść – czy to spadku jakości wynikającego z patrzenia na taki ekran pod kątem, odstającej od PDP/OLED czerni, szybkości reakcji matrycy… Najnowsze odbiorniki LCD są obiektywnie bardzo dobre, niektóre wręcz świetne, ale… no właśnie, na rynku (jeszcze) jest coś, co pod pewnymi względami jest zwyczajnie lepsze (czasami wyraźnie vide czas reakcji oraz jakość czerni). Plazmy odchodzą do przeszłości, przegrywając bój o portfele klientów. Parę lat temu nie miały praktycznie żadnej alternatywy w dużych rozmiarach ekranu, dzisiaj jest jak wspomniałem inaczej …wielkie LCD-ki dobrze świecą, są tańsze w produkcji, zazwyczaj kosztują mniej niż odpowiedniki (rozmiar) w technologii PDP. Ten rok będzie prawdopodobnie ostatnim, w którym da się jeszcze kupić w sklepie nową plazmę. Od 2015 pozostaną wyłącznie LCD i nieliczne, nadal bardzo kosztowne ekrany OLED. Te ostatnie nie są pozbawione wad, może się zatem faktycznie okazać, że następca LCD jeszcze się nie narodził, nie powstał. Cóż, zobaczymy jak to będzie. Jak ktoś planuje zakup wielkiego ekranu z bardzo dobrym obrazem w przystępnej cenie to powinien się pospieszyć z zakupami (o ile ma to być plazma).
Projekt Kinect for Windows to coś, o czym sporo się mówiło, ale trudno powiedzieć żeby pomysł chwycił, odniósł rynkowy sukces. Microsoft chciał wprowadzić niejako tylnymi drzwiami interfejs oparty na gestykulacji do komputerów, interfejs uzupełniający tradycyjną mysz oraz klawiaturę, interfejs który w niektórych zastosowaniach miał zrewolucjonizować sposób interakcji człowiek – maszyna. Czy to się udało? Nie bardzo. Sam Kinect od strony hardwareowej miał/ma potencjał i choć tworzono go głównie z myślą o konsoli, o elektronicznej rozrywce, to jego możliwości wykraczają poza salon, poza gry. Firma z Redmond dobrze zdaje sobie z tego faktu sprawę, problem w tym, że Kinect jest drogi, druga sprawa to wsparcie oraz odpowiedni przekaz skierowany do potencjalnych zainteresowanych. Użytkowników tego akcesorium w przypadku PC można zapewne policzyć na palcach jednej ręki, co nie oznacza że MS odpuszcza sobie temat. Wręcz przeciwnie, niebawem na rynek trafi nowa wersja kontrolera i jak zapowiada MS będzie to nie tyle rewolucja hardwareowa (sensor nie będzie różnił się zasadniczo od tego, który wyjmiemy z pudełka nowego Xbox One), a softwareowa.
Firma zapowiada silne wsparcie dla developerów, do ich rąk ma trafić nowe SDK, nowe narzędzia które ułatwią tworzenie aplikacji dla środowiska Windows 8/8.1. Kinect for Windows v2 ma trafić nie tylko do projektantów, do szpitali oraz szkół, ale ma także stanowić ciekawą alternatywę dla wszystkich użytkowników komputerów osobistych. Biorąc pod uwagę nasze doświadczenia płynące z użytkowania Leap Motion, na takż alternatywę jest chyba jeszcze nieco za wcześnie. Oczywiście Kinect mając takie wsparcie może sobie lepiej poradzić niż ww. produkt (który ma problemy z precyzją, poza tym sprzedał się poniżej oczekiwań… do rąk klientów trafiło niespełna 500 tysięcy tych urządzeń), jednak rzeczą absolutnie kluczową jest wsparcie niezależnych developerów oraz bardzo poważne zaangażowanie producenta sprzętu w jego rozwój od strony funkcjonalności oraz precyzyjnego odwzorowania ruchu. Patrząc na to szerzej, konieczne jest wytłumaczenie potencjalnemu nabywcy w jakich zastosowaniach taki interfejs znajdzie swoje miejsce, zastosowanie. Nie ma sensu przekonywać, że rzecz zastąpi gładzik czy mysz, bo to się nigdy nie stanie. Także udowadnianie, że będzie to coś, co pozwoli na nieskrępowane tworzenie (grafika 2D, 3D) nie za bardzo pokrywa się z rzeczywistością. Ja, przykładowo, widzę taki gadżet głównie w roli akcesorium do multimediów, do elektronicznej rozrywki (gry) oraz sterowania niektórymi funkcjami samego komputera. Taki inteligentny pilot jak wspomniany Leap Motion może stanowić fajną alternatywę dla klasycznego sterowania w przypadku komputera HTPC, czy tabletu podłączonego do dużego ekranu. Sprawdzi się lepiej od sterowania głosowego, pozwoli na interakcję z wieloma programami etc. Cóż, zobaczymy co tym razem zaprezentuje Microsoft…
Konferencja internetowego giganta jest – podobnie jak jabłkowe WWDC – poświęcona głównie oprogramowaniu, dedykowana głównie developerom. Oczywiście zdarza się (i to właściwie każdego roku się zdarza), że przy okazji prezentowane są nowe produkty, albo nowe technologie, które trafią na rynek. Tak było choćby w przypadku Google Glass, które „debiutowały” przed dwoma laty. Moim zdaniem Google powinno skupić się na realnych produktach, na czymś co może dość szybko wprowadzić na rynek, a nie (jak to miało miejsce z inteligentnymi okularami) prezentować bardziej… wizje, idee a nie gotowe do adaptacji rozwiązania. Google Glass na marginesie powinien w końcu zostać oficjalnie zapowiedziany w wersji masowej, z przystępną ceną (zamiast 1500 dolarów, spekuluje się, że będzie to ok. 300$). Brak wprowadzenia do szerokiej dystrybucji tego produktu to niewątpliwie duży cios wizerunkowy dla Google, firma nie może sobie pozwolić na taki blamaż. Być może dzisiaj, jutro poznamy konkretne plany związane z tym projektem. Poza tym, czy może przede wszystkim, Google zaprezentuje światu nowe oprogramowanie oraz usługi. Dowiemy się zatem jak będzie wyglądał nowy Android 5.0 (?), mówi się o dalszej integracji usług w ramach tego systemu mobilnego, poza tym swoją ofensywę zapowiada Intel. Nowe Neksusy, rzekomo, mają być wyposażone w nowe SoC właśnie od Intela, co faktycznie byłoby poważną zmianą uderzającą w pozycję dotychczasowego hegemona w dziedzinie układów dla elektroniki mobilnej – ARM. Wiadomo, że apetyt Intela jest ogromny, firma wyraźnie nie wstrzeliła się w rynek handheldów ze swoimi technologiami, ale to się może właśnie zmienić, za sprawą adaptacji intelowskich układów w najnowszej generacji androidowych urządzeń. Google na pewno będzie dużo mówił o społecznościowym Google+. To jedna z usług, które będą mocno promowane, rozwijane, znajdą nowe zastosowania w najnowszym wariancie oprogramowania systemowego.
Na pewno sporo nowinek czeka ChromeOS, który ma szansę stać się pełnoprawnym systemem dla sprzętu komputerowego, alternatywą dla MacOSa, Windowsa oraz różnych, dostępnych na rynku, dystrybucji Linuksa. Poza tym Google na pewno nie odpuści sobie tematu TV – poza Chromecastem (który odniósł względny sukces), mówi się o kolejnych, tanich produktach „pod telewizor”. Być może usłyszymy o sprzęcie integrującym wspomnianego ChromeOSa, wprowadzającym na duże ekrany konstelację usług Google wraz z możliwością grania w androidowe (a także inne?) gry na ekranie telewizora. Tutaj Google musi uważać, bo GoogleTV w kolejnych wersjach okazało się totalną klapą i kolejny, nieudany produkt, w tej kategorii stanowiłby potwierdzenie, że gigant nie potrafi poradzić sobie z tą tematyką, popełnia (wciąż) te same błędy.
Bardzo ważnym tematem będzie Google Wear. Internet rzeczy, naręczna elektronika (reprezentowana nie tylko przez smartwatch’e), to coś o co rozegra się niebawem wielki bój między największymi firmami technologicznymi… to coś, co będzie generowało gigantyczne przychody, bo mówimy o setkach produktów oraz o połączeniu w ramach nowej tematyki takich elementów jak ogólnie moda, branża odzieżowa, biżuteria etc. Google wprowadzając swoją platformę systemową dla tego typu produktów, chce powtórzyć sukces Androida, dodatkowo zmotywować producentów do szybkiego opracowania i wprowadzenia na rynek swoich rozwiązań opartych na ww. platformie. Na pewno zobaczymy prezentacje takich firm jak Motorola (360), LG oraz Samsung, niewykluczone że także inni zaprezentują swoje pomysły, produkty działające w ramach Google Wear. Integracja gadżetów ma pozwolić na uzyskanie nowych możliwości, zarówno w zakresie funkcji, usług już oferowanych na rynku, jak i zupełnie nowych tematów, takich jak inteligentne rozwiązania w motoryzacji (integracja systemu Android w samochodach osobowych) oraz szeroko rozumianej automatyce. Inteligentne domostwa, zdalne zarządzanie, monitoring (tu przede wszystkim zdrowie – Google zapewne odpowie na wyzwanie rzucone mu przez Apple w tej materii) to rzeczy, które będą w centrum uwagi, zainteresowania, zobaczymy na pewno sporo rozwiązań dotyczących wyżej wymienionych kwestii. Myślę, że Google będzie starało się przekonać wszystkich, że jego ekosystem stanowić będzie najbardziej spójny, wieloaspektowy element nowej rzeczywistości opartej na integracji wielu dziedzin IT w ramach usług, technologii oferowanych przez internetowego giganta. To ambitne zadanie, które – uogólniając – jest celem dla każdego, liczącego się w branży producenta, a nade wszystko dla największych firm technologicznych – to tutaj rozegra się ostateczna rywalizacja o konsumenta, który użytkując dziesiątki, jeżeli nie setki produktów „dogadujących” się w ramach określonej platformy, będzie na stałe przywiązany do danego ekosystemu. Oczywiście nikt nie narzuci tutaj całkowitego zamknięcia na inne produkty, ale wspomniana integracja, wybór danego rozwiązania będzie mocno rzutował na wybory konsumenta dotyczące nie tylko elektroniki użytkowej, ale (także) wielu innych produktów (wspomniana motoryzacja, odzież, medycyna, a nawet branża spożywcza…).
O Google I/O przeczytacie jeszcze poniżej, w rozwinięciu… AKTUALIZACJA
Microsoft przedwczoraj radykalnie zmienił swoją ofertę odnośnie przestrzeni wirtualnej na dane jaką oferuje swoim klientom. I trzeba przyznać, że po wprowadzonej zmianie, ta oferta staje się naprawdę atrakcyjna. Chodzi oczywiście o OneDrive, który w opcji subskrypcyjnej pozwalał na przechowywanie 20GB danych. Od dwóch dni można korzystać już nie z 20GB a 1TB danych i to całkiem za darmo (za to samo konkurencja słono sobie liczy, vide Google Drive, choć pamiętajmy o konieczności uiszczania opłaty za sam pakiet biurowy). Warto przy tym zaznaczyć, że w przypadku licencji Home Premium ten 1TB jest dostępny dla każdego użytkownika, czytaj w ramach jednej licencji mamy do dyspozycji aż 5TB w chmurze. W przypadku tak pojemnego dysku wirtualnego, który w przypadku komputerów (PC/MAC) integruje się z systemem operacyjnym, ponadto dostępny jest na każdej mobilnej platformie, możemy mówić już o bardzo dużych możliwościach alternatywnego (dla wewnętrznej pamięci urządzenia) zapisywania wszelkich danych. Oczywiście są pewne ograniczenia, związane z transferem (duże pliki w przypadku typowego łącza to jednak nie ten adres), jednak takie wirtualne archiwum może skutecznie uwolnić nas od konieczności tradycyjnego archiwizowania różnego rodzaju danych. To, czego można by sobie życzyć, to postępu w integrowaniu OneDrive z aplikacjami systemowymi i nie chodzi mi tutaj o „core apps”, ale o oprogramowanie, które do tej pory nie jest natywnie dostosowane do zapisu w chmurze. Gdyby w naszym środowisku pojawiła się na stałe opcja zapisu w microsoftowej chmurze, bez względu na rodzaj uruchomionego software, bez konieczności korzystania z menadżerów plików, byłby to niewątpliwie strzał w dziesiątkę.
Patrząc na to szerzej, widzimy, że model korzystania ze sprzętu oparty na przetwarzaniu w chmurze, dostępie do danych zapisanych w centrach danych, coraz większej liczby usług działających, uruchamianych zdalnie, staje się obowiązującym standardem. W przypadku niektórych branż, mówimy wręcz o całkowitej zmianie dotychczasowego sposobu funkcjonowania, opartego na fizycznych nośnikach, na tradycyjnych formach dystrybucji. Jedną z takich branż jest audio, inną adaptującą dostęp do danych w chmurze, przetwarzanie w chmurze jest branża elektronicznej rozrywki. Wraz z takimi usługami jak opisane, terabajtowe wirtualne dyski, wraz z systemami oraz flagowymi aplikacjami czerpiącymi pełnymi garściami z nowych możliwości (vide pakiet Adobe, który obecnie dostępny jest wyłączenie w modelu chmurowej dystrybucji) tworzy to nową rzeczywistość w świecie technologii IT, bezpośrednio rzutuje na rozwój oprogramowania, poszczególnych produktów (hardware). Dla nas, zainteresowanych rozwojem branży audio, dostęp do takich wirtualnych dysków daje możliwość umieszczania całych kolekcji nagrań z dostępem na praktycznie każdej platformie. Teraz tylko krok od wprowadzenia możliwości odtwarzania takich plików bezpośrednio w każdej aplikacji, softwareowym odtwarzaczu i problem niewielkiej pojemności pamięci w handheldach (oraz komputerach z dyskami półprzewodnikowymi) będzie można uznać (audio) za rozwiązany...