LogowanieZarejestruj się
News

Tidal z ogromnymi problemami

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
Zrzut ekranu 2017-12-13 o 00.14.52

Źle się dzieje w „państwie duńskim”. Tidal na ogromnym minusie i zaczyna robić się nieprzyjemnie. O skali problemu świadczy artykuł z głównego, norweskiego codziennika: brak płynności finansowej, pieniędzy starczy na funkcjonowanie przez najwyżej 6 miesięcy (nikt nie chce już pożyczać) oraz utrudniająca funkcjonowanie kompletna flauta jeżeli chodzi o zdobywanie nowych użytkowników serwisu – od wielu miesięcy całkowity zastój, nie rośnie.

Obawiam się, że to może oznaczać poważne perturbacje z dwoma rysującymi się scenariuszami… Tidal idzie pod młotek, wykupuje go ktoś z branży (?) i mamy nowe otwarcie (powtórka z WiMPa przejętego przez Jay-Z), albo ostatni gaszą światło i zostajemy bez serwisu oferującego globalnie stream w bezstratnej jakości. To nie pierwsza taka informacja o problemach, te pojawiają się dosyć regularnie (i warto mieć to na względzie, bo niektórzy widzą w tym głównie czarny PR). Jednak od paru miesięcy także związane z Tidalem osoby mówią wprost o kryzysie.

Trudno dzisiaj oszacować liczbę subskrybentów, podają bardzo różne liczby. Serwis próbował szczęścia z umowami z sieciami operatorskimi (u nas np. Play, w Stanach Sprint). Na razie nie przyniosło to jakiś spektakularnych sukcesów. Najwięksi rywale, tj. Spotify oraz Apple Music też przynoszą póki o straty, ale tam działa efekt skali – Szwedzi mają teraz 60 mln płacących, Apple zaś 30. I te liczby stale rosną. Najprecyzyjniejsze dane do jakich dotarłem w przypadku Tidala to ok 4,2 mln płacących. Kiepsko.

Kiedy kino spotyka audio #2: OPPO BDP-205

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
20170930_175513822_iOS

Roon Ready end-point? Check! Odtwarzacz UHD z pełną obsługą Dolby Vison / HDR oraz wejściem HDMI 2.0 (4k)? Check! Wielokanałowy, zaawansowany przedwzmacniacz cyfrowo-analogowy AV? Check! Płytograj SACD z opcją bezpośredniego podpięcia amplifikacji w scenariuszu kwadrofonia/surround? Check! Plikograj z obsługą wszystkiego jak leci, w tym (po ostatniej aktualizacji) plików MQA (patrz moje krytyczne teksty o tym standardzie: tutaj i tutaj)? Check! Czegoś tutaj brakuje? No chyba nie brakuje, w topowym Oppo producent postanowił wprowadzić wszystkie najnowsze rozwiązania z zakresu odtwarzania wideo oraz audio. Inaczej sprawy się mają, przynajmniej na razie, w przypadku modelu 203, następcy 103, być może zostanie to zniwelowane aktualizacją, na razie jednak to 205 ma „wszystko”. Dlaczego „wszystko”. Ano dlatego, że tym razem, jak wspominałem w zapowiedzi, nie zdecydowano się na dostęp do streamingów, na własną platformę smart… to świadomy wybór, dla niektórych kontrowersyjny (jak to, dzisiaj, bez strumieni!?), ale według mnie przemyślany i zasadny. OPPO uznało, że nie ma sensu dodawać funkcjonalności, które powielają to, co najcześciej jest zintegrowane w odbiorniku UHDTV, względnie w jakiejś przystawce (o tym jeszcze za moment), ścigając się z innymi w niewdzięcznym (dla producenta) wyścigu aktualizowania, dodawania, uzupełniania (i tak w kółko) oferty. Pamiętacie nasz ostatni test? No właśnie, na przykładzie A10 doskonale widać jak trudno w praktyce zapewnić stabilne wsparcie dla poszczególnych aplikacji dostępowych, jak często dostarczyciele kontentu zmieniają zasady gry. Są duzi, wróć, są najwięksi z branży IT, którzy mają możliwości trzymania ręki na pulsie. I to oni gwarantują, że z Netfliska poleci, że z HBO poleci, że z Prime poleci i z innych też poleci… Nie, nie stawiam się tutaj w roli adwokata producenta, bo to – patrząc z perspektywy dzisiejszych standardów – jw. kontrowersyjna i niełatwa decyzja, bardzo powiedziałbym odważna. Sam początkowo podchodziłem do sprawy z dystansem, nie tyle z powodu dzisiejszych standardów (każdy to w jakimś zakresie ma), co przez wzgląd na poprzednika, gdzie rozwiązano to dobrze, a parę rzeczy to były ekskluzywne perełki i po prostu szkoda. Testując klamota szybko jednak uświadomiłem sobie, że to wcale nie pomyłka, że właśnie z wyżej wymienionych powodów to decyzja zrozumiała i (jak przekonacie się po lekturze recenzji) sensowna także z punktu widzenia użytkownika. Wystarczy jakiś streamer, choćby taki jak przetestowany niedawno A10 (po ostatnich upach HBO oraz Netflix wreszcie działają btw).

Pamiętacie recenzję BDP-105D, klamota, który otrzymał od nas tytuł „end of the road?” Maszyna zrobiła na nas ogromne wrażenie, obecny model to technologiczne rozwinięcie poprzedniego flagowca – tak mamy referencyjny wideo player odtwarzający płyty Blu-ray UHD (poprzednik to maszyna FHD), ale nie tylko to, bo sprzęt podobnie jak poprzednik potrafi odtwarzać nośnik SACD, a dzięki high-endowemu torowi 7.1 (układy C/A ESS Sabre, wielokanałowe, wyjścia analogowe na amplifikacje, zarówno te kinowe, jak i stereofoniczne, o czym kapkę poniżej) można skrzynkę wykorzystać także jako przedwzmacniacz dla ampów, dla wielu ampów, z takimi opcjami jak obsługujące sygnał UHD wejście HDMI (inne źródła ultra HD). To właśnie dzięki HDMI-in w OPPO wspomniany A10 eGreata, Apple TV 4k oraz Chromecast TV stanowiły idealne uzupełnienie, a precyzyjniej, dopełnienie tytułowej skrzynki. Wystarczy tani Chromecast i niwelujemy to, czego BDP-205 brakuje na starcie… tym razem , jak wspomniałem, OPPO zrezygnowało z serwisów strumieniowych, źródeł internetowych dla materiałów audio/wideo. Sieć jest, owszem, ale tylko lokalnie, to znaczy gramy z udostępionych komputerów, NASów w naszej domowej lokalizacji. Działa to znakomicie, znacznie szybciej od wszystkich do tej pory testowanych multiodtwarzaczy, indeksuje nam OPPO lokalne zbiory i w ten sposób wykorzystamy go, jako streamera, ale -właśnie – lokalnego streamera. Także w odróżnieniu od 105 nie mamy bezpośredniego streamu z Tidala, nie będzie także (co boli, bo mieli to ekskluzywnie) znakomitej jakości źródła jakim był serwis strumieniowy Deutsche Grammophon. Tym razem postanowiono przygotować bezkonkurencyjny, jedyny taki odtwarzacz/DAC/pre stereo/wielokanałowy, nie mający odpowiednika w świecie AV, jednakowoż jw pozbawiony tego, co dzisiaj staje się nieodzowną częścią każdego systemu – w końcu dostęp to dzisiaj Internet. Polski dystrybutor ładnie wybrnął z tego „mniej”, dodając do kompletu (1zł to kosztuje, gdy zamówimy sobie 205-kę) Chromecast Audio. Strzał w dziesiątkę, wystarczy wyjąć, skonfigurować, podpiąć dołączonym do kompletu, niezłym przewodem optycznym z zamontowanym w maszynie OPPO dakiem i już mamy serwisy. Teoretycznie nic nie stoi na przeszkodzie, by w podobny sposób uzupełnić brak strumienia z Internetu w przypadku wideo za pomocą Chromecasta 4k. Zachęcam dystrybutora do takiego ruchu, bo wtedy faktycznie Oppo będzie „wszystkomający” po wyciągnięciu skrzynki i dongli z pudła. Samo uzupełnienie we własnym zakresie to decyzja na jeden ze sposobów integracji strumieni (oczywiście tutaj koniecznie z 4K) via Chromecast Video 4K (tanio) lub Apple TV 4k (drożej) lub Fire TV (Amazon) lub… i tutaj macie jeszcze multum innych propozycji, choć wspomniana zaleta bycia na czasie to właśnie giganci, którzy na bieżąco aktualizują… nie zapominajmy o tym. Można też zdecydować się na takie rozwiązanie jak przetestowany A10 lub jakiś wyspecjalizowany komputer NUC / HTPC. Wszystko to, jak najbardziej, do zrealizowania dzięki wejściu HDMI 2.0 w jakie został wyposażony BDP-205 :)

Takie źródło pozwala zbudować wokół niego cały system, łączący kino z audio na poziomie wysokiej klasy HiFi, a nawet high-endu (dźwięk – mogę sobie wyobrazić 205 w dowolnym systemie, nawet takim za kilkaset tysięcy złotych, gdzie 99% rozwiązań nie daje możliwości grania wielokanałowego, a to… tak moi drodzy, to jedna z rzeczy jakie będzie niebawem branża mocno eksploatować, oj będzie), stanowiąc połączenie odtwarzacza nośników fizycznych oraz plikograja z najlepszymi rozwiązaniami z zakresu oprogramowania, interfejsu, obsługi. Dodajmy do tego wielokanałowość, rozbudowane opcje połączeniowe, funkcjonalność DACa na najnowszych, topowych kościach ESS Sabre i mamy obraz całości, niezwykle atrakcyjnej, gdy uświadomimy sobie, że nie przekraczamy tutaj pułapu 10 tysięcy złotych. Stream audio oraz wideo z sieci w prosty sposób (i tani) dodany (względnie już przez nabywcę użytkowany), czy zintegrowany z Oppo to póki co jedyna taka propozycja (patrząc przez pryzmat ROONa). BDP-205 jako end-point to wg. mnie najlepszy interfejs, najlepsze wrażenia z obsługi kolekcji muzycznych, najsensowniejsza agregacja strumieni tidalowych (cóż, Roon Labs zrobili to lepiej niż sam Tidal z ich nadal pozostawiającą nieco do życzenia aplikacją dostępową) plus ogromne możliwość odnośnie trybów DSP: korekcji pomieszczenia, dopasowania pod konkretne warunki, do podpiętych efektorów etc. Tego nikt w takim zakresie obecnie nie daje, a OPPO to od paru tygodni ma i działa to bezbłędnie. A to przecież tylko wycinek możliwości jakie kryje ta skrzynka w sobie.

Zapraszam…

» Czytaj dalej

Zasiać ferment część II: biznes, jak zwykle

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
240_F_129984436_LUGRhgBpgOKvIJIG2tHLT3liUa0sAJsM

Zarabianie na muzyce nie jest proste. W dobie streamingu to wyzwanie. Ostatnio parę osób z branży podzieliło się uwagami na temat tego, jak trudno wyjść na swoje. Szczerze? Nie przekonały mnie te biadolenia, bo choć same serwisy obecnie są deficytowe to… jakoś nikt nie rezygnuje (wytwórnie) z nowego sposobu dystrybucji, jakoś nikt nie wywiesza białej flagi (tak, ten zły, darmowy YouTube wszystko psuje), każdy stara się rozwijać biznes i mimo początkowego dystansu do nowego (artyści) dzisiaj nikt nie obraża się na taką formę udostępniania muzyki. Co więcej, sami muzycy przyznają, że już od dawna (od dawna, to znaczy jeszcze na długo przed serwisami) zarabiali głównie na koncertach, głównie na monetaryzacji swojego wizerunku, a płyty… cóż, poza topowymi wykonawcami nie były istotnym źródłem przychodów. Same wytwórnie dość późno zrozumiały o co w ogóle w tym Internecie biega, same były sobie winne – nie potrafiły się dostosować. Stąd te biadolenia. Sieć staje się trampoliną do promocji (i tutaj jest łatwiej, taniej, szybciej… ale o tym jakoś nikt z wielkich specjalnie się nie rozwodzi, a to główny koszt po ich stronie), jest idealnym medium komunikacji, stanowi doskonałą platformę dla talentów (i anty-talentów), także tych bez bogatego tatusia z szybami, który kupi miejsce w top 40. Muzyka to biznes, który musiał zaadaptować się do nowej rzeczywistości, do sytuacji w której to co fizyczne przestało być „sprzedawalne”. Rzecz jasna dotyczy to także kina, dotyczy to telewizji, ale – patrząc na wszystkie te nośniki kultury – to właśnie muzyka musiała wjeść w sieć i zacząć na siebie zarabiać. To dochodowy biznes, wbrew twierdzeniom co poniektórych, choć wymagający. Trzeba się szybko dostosowywać, trzeba być aktywnym, trzeba… tak, żyjemy w XXI wieku, musisz się szybko adaptować, jak tego nie zrobisz to wypadasz.

No dobrze, to może MQA ma być po prostu nowym sposobem zarabiania, zarabiania na wysokiej jakości w dobie Internetu? Naturalnie, nie byłoby w tym nic zdrożnego, nic złego i za tę lepszą jakość (gdy w sieci króluje stream o podłej, albo jedynie akceptowalnej jakości… choć to się zmienia vide nasze wpisy o Spotify choćby :) ) należałoby zapłacić, przy czym dla naszych rozważań ważne jest na czym konkretnie i w jakim stylu zarobić. Problem w tym, że stojący za nowym rozwiązaniem twórcy chcą powtórki z rozrywki, chcą dokładnie, jotka w jotkę zrobić kalkę z tego, co słusznie minione, co było powszechnie krytykowane, co było anty-konsumenckie. DRMy, regionalizmy, licencje… coś, co nadal mocno się trzyma w przypadku dystrybucji X Muzy miałoby wrócić w „wielkim stylu” właśnie za sprawą MQA. Nie wierzycie? Wspominałem w poprzednim wpisie o sceptycyzmie Schiit Audio, ale to nie jedyny głos z branży (…branży! Nie od nawiedzonych alterglobalistów ;-) ). Oto co ma do powiedzenia w tej sprawie Charles Hansen z Ayre:

If MQA is successful, audio will be distributed and rented in the same way that video is distributed and rented.

Look at what happened with video – they made it so that only giant mega-corporations could compete – Sony, Panasonic, Toshiba, Pioneer, Denon, because the up-front licensing fees for DVD were $150,000 with an annual renewal of $50,000, plus a 4% royalty on the entire unit. Four percent of a $200 DVD player was almost tolerable, but on a true high-end player, most of the money goes into the power supplies, the higher-quality parts, the elaborate analog and video circuitry, the clocks, the chassis – all things that have nothing to do with the patented technology that is being licensed. The royalty alone would cost as much as a high-quality chassis. It simply was unworkable for small, innovative manufacturers.

A handful of companies (Theta, Muse, Ayre) made „pirate” DVD players by purchasing a completely finished, fully-licensed and royalty-paid player at wholesale from Pioneer (or in one case Panasonic) and then „modifying” it to one degree or another. (As far as I know, Ayre was the only one of these companies to literally re-build the unit from the ground up. See link below.) The problem with that approach is that the Japanese giants „churn” their product line every year or two, and there is no stable platform to base a high-end player on. (This is what killed high-end CD transports in the early 2000′s – nobody sold transports except Philips, and they changed models every year with no support – eg, replacement lasers – for previous models.)

This „pirate” practice reached its nadir when Lexicon (a division of Harman and sister company to Levinson at the time, and who had DVD licenses but not Blu-ray licenses) released its Blu-ray player. It sold for $3000 and it turned out that it was literally a $500 Oppo stuck inside another fancy box. They didn’t even bother to take the parts out of the Oppo box – even the Oppo chassis went right in. The *only* thing that changed was the logo on the start-up splash screen.

This is one of the main reasons that people think the high end is a rip-off and a joke – in many cases it is.

Did the print magazines publish any of this?

If MQA succeeds, it will turn audio into the same exact thing. I’ve heard rumors that the MQA up-front licensing fee is $200,000 but that they will „waive” it for the „early adopters”. The royalty rate is supposed to be a percentage of the cost of the product, but I’ve heard they are making special deals with the „early adopters” – only a buck-two-ninety-eight. What they probably want is a few percent of the wholesale cost of the product. If it goes mainstream, a few percent of all cell phone sales could add up to some *really* big bucks. Someone has to pay for Bob’s mansion.

And that is the world that Bob lives in now. MQA is financed by the Rupert family of South Africa. Multi-billionaires that made fortunes by killing people with cigarettes. The elder Rupert (now deceased) invented the „king-size” cigarette, the „menthol” cigarette, and many other lovely things. One of the sons of big Daddy Rupert runs Reinet Investments, owners of both MQA and Meridian.

So if you want to see our „hobby” turned into a giant parasitic industry controlled by licensing organizations (like the video industry is – HDMI, Dolby, and DTS set all the standards and mandate changes every couple of years to create product „churn”), go ahead and support MQA and Bob Stuart and the greedy Rupert family of billionaires.”

Może to jakiś frustrat, facet spóźnił się na pociąg i teraz rozdziera szaty? Zanim zaczniemy kogoś dezawuować, bo nam w szkodę wchodzi, popatrzmy na argumentacje. Temat wideo znany jest mi bardzo dobrze, kiedyś testowałem sprzęt AV, z akcentem na V i cóż… to wszystko, o czym wspomina Hansen brzmi bardzo znajomo. To jest coś, co nieodmiennie stanowiło zarzut pod adresem całej branży, co pokazywało jak pazerne, jakie to, pozbawione skrupułów, towarzystwo. Generalizujemy, owszem, ale to co stanowiło największy problem dla konsumenta (brak swobody korzystania z dóbr kultury, dodatkowe, zupełnie zbędne koszta jakie musiał ponosić, chcąc korzystać w pełni z tego, co „oferuje” rynek) utrzymywane było i jest z podziwu godną, żelazną konsekwencją. Dzisiaj powoli, bardzo powoli się to zmienia, bo musi, ale… nadal, jak widać są pokusy by wrócić do tego, co dawało przywilej kasowania ekstra ZA NIC. Każdy sprzęt, każdy ze znaczkiem MQA ma być opodatkowany. Chcesz mieć znaczek na obudowie? Płać ekstra za to. Obok opłaty za download, za stream (nie mam nic przeciwko płaceniu więcej za dobrą jakość!) płacę na starcie za PRZYWILEJ KORZYSTANIA Z TECHNOLOGII. Chyba ktoś tu upadł na głowę. Delikatnie rzecz ujmując. Dalej, jak pamiętacie z poprzedniego wpisu, MQA to nie jest żaden Złoty Graal (o tym jeszcze wspomnę, dlaczego nie, poniżej), tylko coś co – owszem – pozwala na przepchnięcie mocno skompresowanych danych do użytkownika, pozwalając zminimalizować transfer oraz zaoszczędzić miejsce na serwerze. Z tego co pamiętam, a pamiętam dobrze, o tej technologii mówiło się początkowo głównie w kontekście mobilnego grania. I prawidłowo, bo przecież tam te kwestie (mniejsze wymagania co do transferu danych, oszczędzanie energii – o tym też twórcy perorowali – po stronie użytkownika korzystającego z przenośnej elektroniki) są b. istotne. Fajnie, ale gdzie jesteśmy obecnie, o czym dzisiaj mówimy? Ano, nie o strumieniach na smartfonach (tak, tak nie ma na razie takiej możliwości, nawet w przypadku jedynego serwisu, jaki MQA wprowadził tj. Tidala), a o domowym audio. I to o tym domowym audio głównie w kontekście MQA się mówi… to jest to, co najistotniejsze, gdzie zarabia się pieniądze (kasuje za licencje). No i jesteśmy w domu. Nie o lepszą jakość w dobie mobilnego grania tu się rozchodzi. MQA nie jest w ten sposób promowane i oferowane z prostego powodu: to audiofile są tu, jak wspominałem, głównym targetem. Taka grupa docelowa, choć niszowa, daje jednak nieźle zarobić, ma w głębokim poważaniu (co do zasady) to co mobilnie gra (no, sorry, smartfon?), preferuje drogie systemy stacjonarne i jak popatrzymy na tych, co są na pokładzie (supporterzy MQA)…

Owszem są też i tacy, nieliczni, z branży producentów sprzętu audio, którzy mobilnie też. Ale to nisza, niszy i co najistotniejsze NIE O TO TU CHODZI. Nikt na serio (z wielkich producentów elektroniki konsumenckiej) nie wejdzie póki co w temat, bo nie widzi w tym większego sensu. I nie, nie chodzi tutaj o brak chęci zarobienia miliardów, bo ta chęć zawsze była, jest i będzie, ale o chłodny szacunek ile? …i czy warto? Odpowiedź brzmi: niewiele (nisza) i nie warto (bo licencja kosztuje, a konkurencja na rynku mordercza). Poza tym ilu złotouchych konsumentów znajdziemy spośród tych dziesiątków milionów kupujących smartfony miesiąc, w miesiąc? Dzielić się zyskami? Wspomniane w poprzednim wpisie Apple, ma swoje Remastered for iTunes i …mu starczy. W przypadku streamingu starczy, nie widzą żadnego sensu we wprowadzaniu „lepszej jakości”, a ewentualne bezstratne downloady mogą pojawić się w kramiku, by na nowo rozbudzić chęć płacenia za album 10$, odwrócić trend spadkowy jaki kramik od paru sezonów prześladuje. Tyle. Także nie jest to coś, co na starcie dawało nadzieję na lepszy stream z serwisów, w ogóle nie o to tu chodzi. Teraz to rozumiem, wcześniej trzymałem mocno kciuki, mając nadzieję (matka głupich), że będzie to remedium na niesatysfakcjonującą (statystycznie – niesatysfakcjonującą nielicznych) jakość muzyki dostępnej w streamie w sieci. To o czym tutaj piszę oraz ostateczny cios (podsumowane w pkt) w aspektach technicznych MQA (poniżej) skutecznie mnie wyleczyły.

Pamiętam te bezwstydne kasowanie przez uczciwych inaczej producentów sprzętu wideo za ten sam wsad, w obudowie generującej mnożnik 10, 100 i więcej do ceny. Oj pamiętam (patrz powyższy cytat). Gdzieś te koszty licencji trzeba upchnąć, mówimy o niszowym (patrząc przez pryzmat całego rynku elektroniki konsumenckiej) segmencie w końcu, a ja czytając takie wypowiedzi jak ta Hansena ciągle mam przed oczami coś, co opisałem na łamach HDO – Malinkę za 20$ w obudowie za tysiąc, patrz …tutaj. Czy oni się nigdy nie nauczą, że takie coś psuje wizerunek nie pojedynczemu producentowi, a całej branży?! Taka Malinka to dobry przykład, bo to oczywiście nieograniczone możliwości, to przykładowo wprowadzenie wsparcia dla MQA na drodze prostego upgrade, „w locie”. Niech płacą 900$ za obudowę. Hansen pisze przez pryzmat swojego biznesu i trudno się dziwić, w końcu dla niego takie 4% od sztuki to oddanie swojego zysku, pieniędzy które miał do tej pory w kieszeni, na rzecz licencjonodawcy. MQA znaczy się. Wsad może być jak z chińskiego high-endu (nie, to nie obelga, chiński high-end to potęga, tam jest lepiej, taniej, szybciej a wsparcie… niech się Ameryka i Europa uczy), a cena na poziomie Rollsa. Tylko logo inne, metka inna i … tak, tak znaczek MQA na pudle (i obudowie). To wszystko stanowi ten sam, wielokrotnie wypróbowany, mechanizm „strzyżenia owiec”. Płacisz za nic i …płacisz za nic. Prawda?

Czy MQA w domu, gdzie mamy szerokopasmowy dostęp do Internetu daje nam jakiekolwiek zyski… nam, użytkownikom, pomijam dostarczyciela treści, który w sumie też niczego nie zyskuje, bo wspomniane, ewentualne, mniejsze zapotrzebowanie na przestrzeń w centrach danych z obecnej perspektywy jest pomijalne, mało istotne? (popatrzmy jak duże potrzeby ma w tym względzie streaming wideo i co? Ktoś płacze? Nie ma czego porównywać zestawiając ze strumieniem audio nawet bardzo wysokiej jakości). No właśnie. Ja nie widzę żadnych zalet, nie ma tu nic, co dawałoby jakąś wymierną korzyść, poza komplikowaniem sobie życia (dekodowanie albo softwareowe w ramach usługi, albo hardwareowe – czytaj licencja, czytaj nowy sprzęt, czytaj koszta po naszej stronie). A przecież to w domu ma nam przede wszystkim, jak obecnie widzimy, grać. W domu, z szerokopasmowym Internetem, gdzie oglądanie na wspomnianym we wpisie Hansena, testowanym u nas Oppo (105D) streamingu koncertów Deutsche Gramophone o jakości (muzyki) z płyty BD-Audio/SACD nie stanowi żadnego problemu. No nie ma czego porównywać.

To może chodzi tutaj o te najlepsze źródła i o to, że nie uronimy ani jednego bita z tego skarbca jakim dysponują licencjonodawcy? No nie bardzo, bo jak już wcześniej, w części pierwszej wspominałem MQA to na sztywno ustawiony, określony sposób przygotowania plików audio (ma brzmieć lepiej ekhmmm), no i jest stratny z samej swej natury. Ok, ja bym to w pełni akceptował, tak jak akceptuję progres w dziedzinie jakościowej jaki prezentują kolejne wariacje kodeka apt-X (HD) w przypadku sinozębnego. To ma sens (apt-X), bo po prostu pozwala stworzyć lepsze warunki techniczne dla transferu danych audio, pozwolić znieść ograniczenia niedoskonałej (na starcie) technologii bezprzewodowej. To ma sens. A MQA… które jak wspomniałem powyżej, po pierwsze celuje w inny target, po drugie (no licencjonodawca bardzo by się ucieszył, gdyby jakiś LG czy Samsung, o Apple nie wspominając, wprowadził to do swoich produktów, nie wątpię) nie rozwiązuje w sumie żadnych problemów, nie jest odpowiedzią na żadne oczekiwania (Tidal HiFi był i jest, oferując stream bezstratny, Qobuz był i jest, Deezer z nową usługą był i jest, będą też zapewne inni), napewno nie w takiej formie!

To jeszcze jeden cytat z Hansena:

„I think we all appreciate the importance of making money! Nothing wrong with capitalism, corporations, and the profit motive of course. When companies make good products, this is to be lauded and rewarded. 
The issue IMO with MQA is that it’s bogus. It was marketed in a bogus fashion, it is not capable of what it claims, and even if we don’t call it all-out DRM, they have not addressed the observation of such an underlying intent or to clarify what limits they seek to protect consumer interests. 

This is IMO bordering on fraud (again – this is my opinion). There are IMO lies being spoken of in the advertising and claims. When this happens, then absolutely, as audiophiles and music lovers, we must come out fighting against such nonsense whether perpetuated by the company itself or in the moronic audiophile press. 

As audiophiles, I think we can all find and see products being advertised demanding that we be skeptical of. For the most part, we can probably just let it pass… But in the case of MQA, there’s a real threat here of that corporate „greed” infecting the music production and distribution chain that provides NOTHING to the consumer; in fact, it’s counterproductive for the consumer. This is a major problem with MQA and again, demands thoughtful audiophiles to respond in kind.”

 

Ostro? No ostro, ale powiedzcie szczerze, nie czujecie jak coś bardzo, bardzo tutaj nie gra, jak mocno jesteśmy naciskani, urabiani, aby ktoś mógł zarobić górę pieniędzy, w zamian nie dając NIC? Dzisiaj można wmówić wszystko, można dowodzić że białe jest czarne i nikt nie będzie protestował (dobra, może ktoś to zrobi, ale who cares?) i sprzedać „gówno w papierku”. Tym bardziej łatwo to zrobić, gdy ktoś roztacza przed podatnymi (raz jeszcze, chwała i cześć audiofilom, ludziom o pięknej pasji i wielkiej wiedzy) obietnice audio nirvany. No ale dziwicie się, jak mowa jest o materiale wprost ze studia, o takim „sky has no limits” w dziedzinie dystrybucji dźwięku? Wspomnianym, Złotym Graalu, czymś na co wszyscy zainteresowani czekali? Może faktycznie, jak napisał na naszym profilu jeden z Czytelników, może faktycznie zdrowsze dla nas wszystkich, sensowniejsze, nie obarczone całym bezwstydnym bullshitem, były czasy kasety magnetofonowej. Fizycznego nośnika. Skupienia się na tym, co istotne. Na muzyce. Nie, nie chcę wyjść na starego zgreda (dobra, dobra, którym oczywiście jestem), nie ma powrotu do przeszłości, ale zastanówmy się, czy to nie jest dla nas wszystkich nauczka, że to co nowe, niefizyczne, komputerowe w przypadku naszej pasji może łatwo sprowadzić nas na manowce? Dać się „zrobić”, zapłacić za hokus-pokus, wprost: dać się nabić w butelkę, oszukać…

Jest jeszcze aspekt techniczny, czyste technikalia i Archimago zadaje, wg. mnie, celnie, ostateczny cios MQA (w obecnej formie?), pisząc:

„We have 2 options currently:

1. We simply downsample to 48kHz while maintaining 24-bit resolution and give up the ultrasonic frequencies above 24kHz = STANDARD downsampling. 

2. We sacrifice 24-bit depth to „typically 15.85 bits” (Bob Stuart’s words), and encode the ultrasonic frequencies from 24-48kHz in a lossy fashion = MQA encoding & decoding. [Throw in some stuff about "de-blurring" while you do this of course and claim you can recover everything else you "need" back to the "original" 192kHz. Turn on a LED/indicator telling us MQA decoding is happening, that there's no error in the stream and it's the "original" resolution (meaningless, but that's fine)."

Pierwsza, wydaje się sensowna i uczciwa, w tym sensie uczciwa, że stosujemy coś, co nie udaje czegoś, czym nie jest. Mamy standardowy downsampling, mamy te 24/48 i już. Nie czarujemy, taki stream daje nam pewność, że odtworzymy dokładnie to co powyżej na lwiej części mobilnej elektroniki. Bingo. Nie wróć... Bo mamy drugą opcję i ta druga jest właśnie dzisiaj standardem. Nie ma bitperfect, nie ma, bo jest lossy. Tak to obecnie jw. wygląda. A dlaczego tak wygląda? Ano chyba dlatego:

Lossless 24/48 audio sounds great and in many cases would be easier to compress than MQA for streaming. Heck, we could zero out the last 4 bits and maybe compress a 20/48 stream for more data savings without worrying about anyone complaining. Plus, since time domain performance is linked with bit-depth, one could argue that maintaining true 24-bit resolution provides better time-domain performance below Nyquist. It will be "open" for easy adoption by manufacturers and not impose any licensing fee.

Innymi słowy, licencji nie ma, bo nie potrzeba, taki plik nawet łatwiej przepchnąć niż origami, oferuje świetną jakość i jeszcze możemy bez żadnej jakościowej straty poświęcić "nadmiarowe" 4 bity (czyli mamy 20/48). Każdy może to wprowadzić, każdy zainteresowany. No ale:

1. It adds complexity and cost (unnecessarily):
a. We already have many high-resolution DACs out there. Do we need a new "format" that's not "fully" backward compatible?
b. Only MQA-certified software / hardware available for decoding. This reduces options for consumers and likely always will especially in the audiophile world where small manufacturers may find it hard to justify licensing costs. Furthermore, small independent developers, free software and Linux distributions would not be able to develop for MQA decoding unless under some kind of license. Ultimately this reduces innovation.
c. MQA versions of downloads such as what we see on 2L (US$19 for 24/96, $23 for 24/192, $24 for MQA, and $30 for studio master DXD) often costs more than downsampled very high quality 24/192. Does MQA encoding actually add any value or are we seeing the added licensing fee passed on to consumers? Is there any justification for the existence of MQA for file downloads when we're not faced with the bitrate limitations of streaming over the Internet?

2. Technical concerns:
a. It reduces the actual bitdepth to the aforementioned "typically 15.85 bits" and up to "17-bits" resolution when decoded. These numbers are from Bob Stuart. I know they want us to ignore this and focus on the analogue output rather than care about the digital technical values. We can argue about this of course; but the point is that a resolution limit has been imposed which is lower than standard 24-bit digital audio.
b. Reconstruction of the first unfold into the 24-48kHz audio frequencies is lossy in nature compared to the original. Again, they may argue that there is no audible difference, and yet again, a limitation has been imposed that would not exist with 24/96, much less from a 24/192 source.
c. MQA upsampling is done with "leaky" filters resulting in weak ultrasonic suppression of aliasing. Remember that DAC designers can easily program their devices to do this if felt to be preferable for their designs. Also, we as consumers can choose to do this ourselves with software upsampling if we really think this is a good idea (software like HQPlayer perhaps or even SoX).
d. For those who want to do advanced DSP like room correction filters, ambisonic processing (like this one), or surround processing, we cannot have access to the full digital resolution because of the proprietary MQA decode process. (This is a big deal IMO that limits flexibility and progress as we aim for better sound quality for hi-fi enthusiasts.)
[Given the technical concerns, what is the meaning of advertising claims of "de-blurring", how can it "fundamentally change the way we all enjoy music", represent a "new paradigm", or "reveal every detail of the original recording"?]

3. Minimal audible difference:
a. Digital subtraction tests show little difference.
b. Blind listening test with 83 listeners show no clear preference. (In fact, in some situations, standard hi-res was preferred.)
c. Inter-DAC comparisons with MQA decoding show no evidence of significant „authentication” of a standard „studio sound” in the analogue output beyond the expected DAC differences.

4. Unclear Digital Rights Management (DRM) implications:
a. Already as in (1), MQA certified products such as an MQA DAC adds expense and there are fewer software playback options. It locks us into a proprietary mechanism right from the start. This is a backward step considering the years of open and free (for consumer) lossless file formats like WAV, FLAC, ALAC, WV, APE, etc...
b. Potential future stronger mechanisms such as encryption or scrambling to enforce playback only with licensed products at the expense of significant sound quality if one does not „buy in”. This is not an issue currently if you feel undecoded MQA sounds as good as CD resolution. However, there are hints in the MQA firmware that more severe forms of DRM can be imposed. It doesn’t take a genius to see how that MQA „authentication” indicator can be linked to such a mechanism. Do we even need to entertain this possibility as consumers in 2017 after years of rejected attempts at DRM and digital watermarking?

Właściwie każdy z powyższych pkt jest ważny i stanowi trudny do podważenia zarzut, ale pogrubiłem to, co wg. mnie kluczowe. Brzydko pachnie? No nie inaczej, wręcz cuchnie. Nie podkreślałem pkt zawierających jakieś subiektywne odczucia, badań odsłuchowych, bo to zawsze można podważać w każdą stronę. Mam swoją opinię (byłbym 84 słuchającym, nie rozróżniającym czy gra MQA czy stream HiFi), ale to nie jest tutaj najistotniejsze (subiektywne wrażenia). Istotne są twarde, techniczne realia, a te dają kłam propagandzie, marketingowemu szumowi jaki otacza MQA. To nie podlega dyskusji. To są fakty. Gdzie tu w takim razie wartość dodana? Raz jeszcze zapytam. Jak można promować zamknięte, licencjonowane rozwiązanie, na pograniczu nowego DRM-a (niech sczeźnie w końcu raz, a dobrze i nieodwracalnie to, to)? Jak można promować coś, co ma takie ograniczenia funkcjonalne (korekcja pomieszczenia, filtry, surround – w przypadku MQA nie ma o tym wszystkim mowy)? Dlaczego konsument ma płacić za coś, co nie jest żadnym krokiem naprzód, ba płacić za to coś więcej niż za dotychczasowe materiały audio wysokiej jakości dostępne w sieci?

…cóż, przytoczona wypowiedź jednej z promujących standard osób, może chyba zamknąć te nasze rozważania i nie wymaga żadnego dodatkowego komentarza:

„No Scientific Tests Were Done, Says MQA Founder” (link)

 

Zasiać ferment część I: A może po prostu błądzimy?

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
images-2

Zwątpiłem. Słucham krytycznie paru nowych klamotów i czytam. I zaczynam poważnie zastanawiać się, czy to co dzisiaj obserwujemy na rynku ma jakikolwiek sens. Gdzieś nam ucieka to co istotne. Skupiamy się nie na tym, co kluczowe. Rzeczom nieistotnym przypisujemy ogromną wagę, kompletnie rozmijamy się z …rzeczywistością. My? Tak my. Ja – piszący te słowa, ale także Wy, czytający je, a nade wszystko psujem jest branża. W prostocie jest metoda, za dużo kombinowania sprowadza nas na manowce, przy czym najgorsze w tym wszystkim jest to, że chcemy być oszukiwani. Musiałem podjąć decyzję o zmianie paru ostatnich tekstów (stąd opóźnienie w publikacji), bo stwierdziłem, że pewne rzeczy można potraktować zupełnie inaczej (niż pierwotnie zostało to opisane). Odniosę się do tego w publikacjach. Teraz jednak chcę napisać o czymś, co wywołało u mnie taką, a nie inną reakcję. Od dawna śledzę dwa miejsca w sieci, gdzie tytułowy ferment siany jest bez ograniczeń, gdzie właściwie wszystko co do tej pory pisaliśmy o graniu z pliku jest albo podważane, albo przynajmniej poddawane w wątpliwość. Uwielbiam tam zaglądać, bo lubię być konfrontowany, uważam że lepiej jest dociekać, wątpić, niż a priori coś zakładać. Oczywiście istnieje niebezpieczeństwo oflagowania się i poddania w wątpliwość wszystkiego, popadnięcia w ciężką paranoję, ale przyjmijmy, że pewne rzeczy po prostu zakładamy korzystając z bardzo subiektywnego, bardzo niedoskonałego aparatu poznawczego jakim dysponujemy. To raz. Dwa – w sukurs przychodzi nam nauka, to co mierzalne, policzalne i …mądrzejsi od nas.

 

Naprawdę?

Chyba jednak nie, bardzo nie…

Te dwa miejsca to wspominany parę razy blog http://archimago.blogspot.sg/ oraz miejsce, które zwróciło moją uwagę niedawno… http://fairhedon.com/ Tu nikt nie sili się na przypodobanie się komukolwiek, czy jakiś rodzaj kompromisu, bo wiecie reklamy, chleb, dobre relacje z branżą… Nie. Nie ma tutaj miejsca na żadną dyplomację w wygłaszanych sądach, wnioskach, a to co stanowi wartość to, to, że wypowiadają się praktycy, ludzie z wiedzą wykraczającą poza poziom tych, którzy często (nie wyłączając wyżej podpisanego) publikują, testują, zajmują się problematyką audio zawodowo, albo hobbystycznie, wsio rawno, ważne że kształtują w mniejszym bądź większym stopniu opinię. Warto czasami zadać sobie parę podstawowych pytań. Warto też sprawdzić, czy to co uważamy za istotę nie jest przypadkowo mirażem, czymś co w ogóle nie tłumaczy, nie ma wpływu na SQ.

Zacznę od Briana Lucey’a. Inżynier dźwięku, wydawca, praktyk. Jak pewnie tysiące innych, robi swoje i …nie przejmuje się nic, a nic, problemami, z którymi zmagamy się na codzień. Po lekturze, można by rzec, z wiatrakami z jakimi walczymy dzielnie, choć zupełnie niepotrzebnie. Warto przeczytać cały wywiad opublikowany pod tym linkiem: http://fairhedon.com/2017/11/05/an-interview-with-mastering-engineer-brian-luceybo wspomniany praktyk ma rzadką umiejętność mówienia językiem prostym o skomplikowanych sprawach, dodatkowo bez zawiłego kluczenia, a prosto do sedna. Sama esencja. Co wynika z tego wywiadu? Ano to, co może i podnosiłem tutaj nie raz, ale z …mocnym przesunięciem akcentów na rzeczy, które jak wyżej, umykają nam, opisującym, pasjonującym się najnowszymi technologiami (dla ułatwienia, mianownikiem jest tu granie z pliku). I tak Brian masakruje ideę MQA, twierdząc, że jest to najgorszy możliwy sposób na dystrybucję dźwięku. Argumenty ma mocne, a że mówimy o rzeczach kluczowych (bo MQA w związku z Tidalem i bliskim wprowadzeniem strumieni hi-res w innych serwisach ma być STANDARDEM) to warto nad tym się pochylić. Pisałem już o tym wcześniej na łamach HDO. MQA co do zasady (działania) jest stratnym kodekiem i wszelkie próby zaprzeczenia, że ależ skąd nie wytrzymują konfrontacji z rzeczywistością. To origami audio, kontener, ze swej natury nie może być bitperfect, bo w dosłownym tego słowa znaczeniu odtwarza coś, co wcześniej zostało skompresowane w sposób stratny… usunięte. Nieważne czy robi to doskonale, czy mniej doskonale, ale nie jest czymś, co kojarzyliśmy do tej pory z najlepszą jakością, czy bezkompromisową jakością. Brian porównuje MQA do Mastered for iTunes, o którym też mogliście u nas co nieco poczytać (potem, znacznie potem, potem i łagodniej o np. tutaj). To znaczy poczytać w ogóle coś na ten temat, bo kto tam takimi pierdołami będzie się gdzie indziej zajmował ;-) …pięć lat ma ten wpis, chyba za ostro pojechałem wtedy po Apple, choć w kontekście tego, co zaraz przeczytacie… może i słusznie, bo tam też czarowali. Porównuje i ma ku temu pełne podstawy, a że MfT to całkiem sensowny sposób na dystrybucję treści w bardzo, bardzo skompresowanej formie (oczywiście stratnej), z sensownym jakościowo rezultatem finalnym to… no właśnie, pozostaje zapytać, co daje nam MQA?

Wymowne?

Aż zacytuję, bo warto przytoczyć: „And like Mastered for iTunes or any reduction scheme the losses are in critically important areas. Where as mastered for iTunes is harmonically cold and loses some low volume/low end information, actually altering the groove to make everything sound like a nerdy white wedding band, MQA brightens the high-mids in the Mid section while thinning the low-mids on the Sides. There’s also some harmonic distortion which some people could find pleasing,  If I want that distortion in the master I would’ve put it there in the first place. The results of MQA I would call fatal to the source material even as they are very subtle.” Co wynika z przedstawionego tutaj, kluczowego zresztą spostrzeżenia, poczynionego przez Briana? Ano coś, co redefiniuje nam całkowicie MQAowe hi-res. Bo o jakim hi-res tu mówimy, jeżeli w praktyce nie mamy możliwości uzyskać jakości płyty CDA?! Tam, w przypadku zapis 16/44.1 w bezstratnej postaci (WAV), wiemy co konkretnie otrzymujemy. Otrzymujemy to, co zarejestrowano w studio. Może to być gówno, może to być diament, ale wiemy co dostajemy i całe halo odnośnie hi-res sprowadza się do tego, że dzięki dodatkowym bitom, większej częstotliwości próbkowania możemy  (ale to tylko potencjał, a nie coś, co cokolwiek gwarantuje vide wiele 24 bitowych plików, które są do dupy) materiał zarejestrowany i obrobiony w studio przenieść bez ograniczeń wynikających z XX wiecznych technologii (nośnik gromadzący niewielką, z punktu widzenia dzisiejszych realiów, ilość danych like CDA). Tyle. Przy czym – z czym zgodzą się chyba wszyscy, słuchający muzyki z różnych źródeł, mający porównanie – nośnik, cyferki O NICZYM NIE PRZESĄDZAJĄ. Są natomiast wskazówką i …w przypadku MQA widzimy, że nie dość, że plik jest lossy to jeszcze proces jego przygotowania do dystrybucji wiąże się z określoną (ściśle!) zmianą reprodukcji w przypadku każdego, zakodowanego w ten sposób, materiału. To jest dla mnie nowa informacja. Jak wspomniałem, to że jest to co do natury kompresja stratna było dla mnie oczywiste od chwili pojawienia się MQA na rynku, ale to, że origami to także ingerencja w sposób w jaki odtwarzany jest materiał to coś… z zupełnie innej beczki. Ja chce usłyszeć to, co wyszło ze studia, a nie to co sobie twórcy wyobrażają, albo specjalnie upiększają (no, wprost, kitują). Przecież sami reklamują to, jako najlepszą metodę przeniesienia „master quality” audio wprost do domu. To jest …kłamstwo. I tak jak w przypadku iTunes wszystko jest jasne, bo sami opublikowali białą księgę w której dokładnie opisują co i jak robią, to tutaj mamy do czynienia z marketingowym hokus-pokus.

Sprzedać? Tak, jak najbardziej. Zaoferować wartość dodaną? No właśnie niekoniecznie

Mnie MfT smakuje, zgadzam się w całej rozciągłości, że to jest przyprawiane właśnie tak, jak Brian to opisał… ma to dobrze smakować na sprzęcie mobilnym, na bezprzewodowych słuchawkach i bezprzewodowych głośnikach. I brzmi. Sama elektronika mobilna często mocno podkreśla doły, mocno koloryzuje, osusza, cyfrową patyną raczy… stąd taki wybór inżynierów Apple, przy zachowaniu dużej dbałości o jak najwierniejsze przeniesienie materiału źródłowego do kramiku Apple. Brzmi to w określonych powyżej okolicznościach dobrze, rzecz jasna trudno to traktować jako bezkompromisowe, najlepsze, czy idealne źródło dźwięku. A tak ma być, bo tak to reklamują, z MQA właśnie. Jeżeli ktoś majstruje nad tym, jak słyszę w samej technologii medium, transportu (zapisu) to… sorry, ale ja tego nie kupuję! To jest oszustwo. I nie oznacza to, że zakładkę Masters można sobie darować, bo wiele muzyki tam udostępnionej to materiał bardzo dobry jakościowo. Nie w tym rzecz, rzecz w tym, że ktoś tu za nas decyduje i oferuje coś innego, niż mówi. Jak wspomniałem, uważam że Mastered for iTunes jest jednym z lepszych patentów jakie Apple wprowadziło do obiegu nowoczesnej dystrybucji muzyki w pliku. I mimo ograniczeń, mimo określonego targetu, to właściwa droga… jedna z wielu, rzecz jasna, ale sensowna, mająca na celu dostarczenie lepszego jakościowo dźwięku. Owszem, też czasami możemy zobaczyć w opisie master HQ, studio master, ale nikt tego nie wyciąga tak bezwstydnie jak ma to miejsce w przypadku MQA. Co więcej, tutaj idzie się po bandzie, bo jak powiedział Brian, wyciąga średnie, robi się „atrakcyjniej”, wprowadza zniekształcenia harmoniczne, które wielu uzna za przyjemniejsze w odbiorze… na poziomie przygotowania materiału rzekomo „wprost ze studia”. To jest wg. mnie nawet gorsze od złośliwie podnoszonego przez Briana (iTunes) grania na modłę zespołu weselnego (głośno k%@$^&#, jeszcze głośniej i z przytupem!), bo z obietnic sączonych szerokim strumieniem wychodzi… jeden wielki blamaż. A nie ma tutaj i nie może być mowy o perfekcji z bardzo prostego powodu.

To jest schemat „jak to działa”, ale ten schemat nie mówi prawdy… jakie lossless? To, że wejściowo jest lossless nie oznacza, że na wyjściu też tak jest.
Bo nie jest. W sumie to sprytne… dajemy Wam kontener, który pozwoli przesłać te wszystkie bezstratne hi-resy przez Internet… owszem, pozwoli przesłać, ale co konkretnie przesłać to już zupełnie inna historia…

Tym powodem, moi drodzy, jest niedoskonałość. Ta niedoskonałość jest wpisana w muzykę, jest jej immanentną częścią. I jest niezbędna. A ludzie stojący za MQA próbują to właśnie wygumkować. To jest NAJPOWAŻNIEJSZY ZARZUT. Próbują odebrać nam to, co – jak pewnie wielu podświadomie czuje, wie – powoduje, że to jest TO. Można to porównać do prób remasteringu podejmowanych z masakrycznym efektem przez ludzi kina, próbujących „uwspółcześnić” niektóre arcydzieła kinematografii. Można to porównać do „teatru telewizji”, czytaj nienaturalnego odwzorowania (upłynnienie) ruchu w niektórych filmach, audycjach telewizyjnych, można wreszcie – generalizując – porównać do tego, co dzisiejsza technologia nam odbiera. Pierwotnej, wynikającej z niedoskonałości, radości obcowania z czymś żywym, prawdziwym, nie sztucznym, prawdziwym, bo niedoskonałym. Plik, komputer daje nieograniczone możliwości, ale my nie tylko błądzimy, ale jak widać często robimy źle, idziemy w złym kierunku. MQA to zły kierunek. Brian wspomina o targecie jakim są audiofile. Najbardziej narażeni na marketingowy atak, perfekcjoniści, doszukujący się nawet w najbardziej błahych czy nieprawdopodobnych rzeczach ukrytego przed światem znaczenia – ich zdaniem, fundamentalnego dla osiągnięcia jakiegoś „absolutu”. Nie, nie każdy audiofil tak ma, ba uważam, że wielu z nich ma tak bogatą, tak wszechstronną wiedzę na temat swojej pasji, że sami w sobie, stanowią oni wartość dla całego spektrum ludzi słuchających muzyki. Chwała im. Niestety, w związku z ich przywiązaniem do spraw, często nieistotnych, nadmiernego nadawania znaczenia sprawom błahym i wiary (czasami w cuda) mamy to, co mamy. MQA jest sposobem na sprzedaż. Tylko i wyłącznie. Audiofilom. „MQA has been targeting the weakest players in our world, the audiophiles.  And they’re targeting those most dependent on pimping new tech, the audiophile press.  Meanwhile, one sided presentations at trade shows leave no time for deep Q and A and any real discussion panels are eschewed by MQA. The most excitement about MQA seems to be from perfectionist consumers who want that blue LED and sense of authentication, pressuring DA makers to send that licensing money to MQA and catch up with a demand invented by MQA.” W sumie nic dodać, nic ująć, prawda?

Wspólnym mianownikiem dla tego co powyżej jest rzecz jasna rozpasany konsumpcjonizm. Musi się sprzedać. To co było, w nowej formie, musi (materiał) oraz sprzęt (oj tak, tutaj wystarczy wspomniana magia cyferek i hokus-pokus) musi. Idąc dalej licencja musi i najlepiej żeby narzucić wszystkim standard. Masz? Słyszysz. Nie masz? No sorry, nie możesz. Prawda? Bierzemy udział w tej grze, a świat zero jedynkowy, jak żaden inny, opiera się na tym, co eteryczne, ulotne. Nie, nie ma tu przesady. Mogę ten tekst modyfikować bez końca, w odróżnieniu od papieru, który raz zapisany takim pozostanie, stanowiąc świadectwo. Podobnie fizyczny nośnik. Świadectwo niedoskonałości, ułomności, tak podobnie jak wspomniana powyżej oraz poniżej niedoskonałość muzyki. To jest bogactwo, nie śmietnik, a my próbujemy to wziąć w nawias, wyrugować z naszego życia. To błąd! Co gorsza, ubieramy to nowe w szaty postępu, staramy się udowadniać, że tak jest lepiej, właściwiej, „prawdziwiej”. Cóż, gówno prawda.

Z dedykacja dla nas wszystkich: „Distortion artifacts are musically incorporated in to all music production, there is no perfection in music.  That way of thinking is bogus and anti music.  Music is flawed and that’s a good thing, it’s the humanity. Perfection has no place in music production, it’s a dangerous myth” MQA to coś, co ma wygumkować powyższe, co więcej, ma nam jak w reklamie, zaoferować NIERZECZYWISTY produkt, inaczej… ściemę, kłamstwo. U źródeł jest fałsz, bo to z jednej strony nie jest dążenie do dystrybucji materiału takiego, jaki został wydany (właśnie, wydany, nie zarejestrowany, bo zaraz potem mamy takiego Braina), bo się to, to „uszlachetnia”, a dodatkowo pozbawia czegoś, co świadczy o (chichot) autentyczności. Tak, ta dioda która pali się w klamocie, ta dioda MQA w sprzęcie z pełnym wsparciem, NIE ŚWIADCZY O ŻADNEJ AUTENTYCZNOŚCI. To nie podlega dyskusji, chyba że zmieniamy znaczenie słów, przeinaczamy, na potrzeby marketingowej machiny ubieramy w kolorowy papierek zwykły kit. Ten tekst – powiem wprost – wstrząsnął mną, bo (o tym będzie część II) techniczny opis samego procesu origamizacji materiału oraz biznesowe tło to rzeczy, o których wiedziałem wcześniej, czytając m.in. wspomnianego archimago. Tutaj jednak dochodzimy do nie podlegających interpretacji, konkretnych, wniosków, będących jednym wielkim zarzutem pod adresem czegoś, co miałoby stanowić przyszłość dystrybucji muzyki w sieci (jak chcą poniektórzy), albo przynajmniej stanowić nieodłączony element strumienia najlepszej jakości, jaki z tego Internetu nam się serwuje. Ja tego nie kupuje. Widzę, że są inni w branży (producenci sprzętu), którzy też tego nie kupują (tak Schiit, ale nie tylko oni, jeszcze o tym wspomnę). To nie jest fair, to zwyczajnie nieuczciwe wobec nas. Jak wspomniał Brain stoją za tym wielkie firmy, stoi za tym dystrybucja, stoją koledzy po fachu, którzy wystawili laurkę MQA i bardzo mocno wspierają zjawisko, opisując to… zjawisko… w samych superlatywach.

Tyle tylko, że to jedna wielka ściema.

 

I’m most concerned about the bogus claims that MQA is fixing approved masters.  Not possible, and a rude assertion to trillions of hours of hard work by teams of people making records for decades.  Pure marketing hyperbole.  Nothing in audio is perfect, there is no Original Sin, and there is no going back to the place of ideal perfection. Ultimately there is no free lunch in digital, and music production is about a constant flow forward … shaping distortions and how they play with frequency balance and transients.  When a record is first tracked, then rough mixed, mixed, revised, mastered, revised in mastering and finally approved … there is no fixing it.  Anything that changes violates 5-20 people who have all signed off.  Distortion artifacts are musically incorporated in to all music production, there is no perfection in music.  That way of thinking is bogus and anti music.  Music is flawed and that’s a good thing, it’s the humanity.   Perfection has no place in music production, it’s a dangerous myth.  MQA has no future in the world of serious engineers in my view, it’s a corporate money scheme at this point.  Yet we will see how it turns out, most people are lazy and greed goes a long way on it’s own power.

 

To oczywiście bardzo uproszczone przedstawienie rzeczywistości. Mhm. Tyle, że niestety znacznie bliższe prawdy, niż wielu się wydaje…

 

C.D.N. (o biznesie i technikaliach będzie, zacząłem od tego… co najistotniejsze, reszta to tło i niestety to tło tylko utwierdza, tylko utwierdza… ale o tym w następnym wpisie)

 

PS. Sam na fali entuzjazmu dałem się ponieść, przykładowo choćby w tym wpisie http://hd-opinie.pl/6664,aktualnosci,mqa-universal-music-group-nadszedl-czas-na-hi-res-audio.html Człowiek uczy się całe życie. Na błędach się uczy. Jak widać :-)

Kino spotyka audio i co z tego wynika: wszystkograj Egreat A10

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
20170921_082721065_iOS-e1510678073252-600x266

Mieć jedną skrzynkę, która wszystko „ogarnia”, daje dostęp, łączy funkcjonalność w kinie i w audio… marzenie ściętej głowy? Ktoś powie komputer. Tak, komputer na pewno pozwoli na nieograniczone możliwości w zakresie odtwarzania, ale komputer jest pełen wad. Każdy to przyzna, kto ugryzł temat i używał nawet dedykowanego HTPC. To zawsze jakiś kompromis, bo chłodzenie (aktywne – choć da się to dzisiaj obejść), bo interakcja (komputerowy system nigdy nie będzie łatwy do zarządzania z pilota, czy handhelda), bo wymagania (wiele pary w gwizdek, bo „duży” OS) już nie wspominając o tym, że trzeba się trochę znać, umieć skonfigurować, dbać o bezpieczeństwo (to też do pewnego stopnia da się obejść). Jak widać, mocno komplikuje to sprawę i dlatego, od wielu lat na rynku znaleźć można skrzynki, które czy to lokalnie, czy także z Internetu grają, odtwarzają i – co stanowi ich wielką przewagę nad PC – nie wymagają. Rozwiązania gotowe do użytkowania wprost z pudełka. Obecnie układy montowane w tych boksach dysponują możliwościami równorzędnymi z tym, co siedzi w „lekkim” systemie komputerowym, takim energooszczędnym, dostosowanym konstrukcyjnie do potrzeb związanych z AV (wspomniane HTPC). Ktoś rezolutnie zwróci uwagę na możliwość bezprzewodowego strumieniowania z komputera, tabletu, czy smartfona treści wprost na telewizor, do systemu AV zbudowanego wokół amplitunera kina domowego etc. i powie: po co mnożyć byty? Cóż, taka opcja owszem, daje nam pewną swobodę i wygodę, ale nie daje nam wszystkiego, a wręcz zubaża nas znacząco, bo ani wielokanałowego dźwięku w najlepszym standardzie, ani strumienia 4K, ani najlepszej jakości dźwięku (audio) w ten sposób nie prześlemy, nie zobaczymy/usłyszymy, to jeszcze na dodatek trudno będzie tu mówić o spójnym rozwiązaniu, które pozwala na swobodne, wygodne korzystanie z wszelkich treści.

No dobrze, to jedna skrzynka co wszystko łączy i jeszcze daje się zintegrować z dowolnym AV? Niby banał, a jak się okaże wcale nie banał i zbudowanie takiego urządzenia, bezkompromisowo łączącego możliwości w zakresie odtwarzania najlepszych jakościowo materiałów, wsparcia dla strumieni z sieci (usługi!) oraz integracji ze sprzętem AV to spore wyzwanie. Pierwsza z brzegu funkcjonalność, często eliminująca 99% tego typu skrzynek… podłączenie pod dobry przetwornik C/A, podłączenie via USB nie SPDIF (bo tam mamy ograniczenia odnośnie materiału, tylko do 24/192 i w większości wypadków tylko PCM) do systemu audio i już znalezienie takiego multistreamera okazuje się bardzo trudne. Kolejna rzecz – najnowsze standardy AV. Znowu mamy wojnę formatów, jest Dolby Vision, jest HDR (w paru wariantach), trochę lepiej jest z dźwiękiem, choć i tutaj wsparcie dla Dolby Atomos w wielu wypadkach nie jest wcale oczywistością. Kolejna sprawa to dostęp do usług streamingowych… to dopiero problem, bo restrykcje, bo regionalizacje, bo obostrzenia związane z typem urządzenia / platformą systemową. Sprawa, jak widać, mocno nam się komplikuje. Dodajmy do tego prosty w obsłudze, w pełni dostosowany do pilota (tego żaden PC wam nigdy w pełni nie zagwarantuje – nie ma opcji) interfejs, UX na odpowiednio wysokim poziomie, wraz ze stabilnością, szybkością i dobrym wsparciem ze strony producenta (tu trzeba często aktualizować, bo choćby dostęp do treści strumieniowanych z Internetu tego dzisiaj wymaga) to właściwie mission imposible. I żeby jeszcze potrafiło, to, to odtwarzać płyty Blu-ray (też UHD) z pełnym menu z dysku/ów? Jak to wszystko pogodzić, jak zrobić to tak, by faktycznie wszystokograj „dawał radę” i łączył oba światy: kina oraz audio w ramach jednej propozycji sprzętowej?

Odpowiedzią na to może być tytułowa skrzynka all-in-one firmy Egreat, model A10. To ambitna odpowiedź na wspomniane powyżej dylematy, wymagania, próba stworzenia całościowego rozwiązania, które „da radę”. Przez ostatnie kilka tygodni intensywnie rzecz testowałem. Przeegzaminowałem w każdej, ważnej z punktu widzenia wideo oraz audiofila dziedzinie (nie, nie przesadzam, bo funkcjonalność/możliwości miały gwarantować „wszystko w jednym” w systemie audiowizyjnym z ekranem 4K najnowszej generacji oraz high-endowym sprzętem audio) i mogę z całą odpowiedzialnością powiedzieć, że to pierwsze, oparte na Androidzie, urządzenie, które może stanowić alternatywę dla „komputerów”, bez kompromisów jakościowych, bez „ale tego się nie da”, z pełną integracją z torem wizyjnym i audio z najwyższej półki. Z jednym zastrzeżeniem, zastrzeżeniem dotyczącym usług streamingowych wideo, przy czym mówimy tutaj o dostępie do płatnych serwisów, bo możliwość strumieniowania czegokolwiek via XBMC/Kodi/VidOn w tej skrzynce rzecz jasna jest, plug-iny (add-ony) są, ale jako się rzekło wcześniej – dostęp do treści jak z jakiegoś dekodera płatnej TV czy smartTV, choć występuje nominalnie, to jeszcze nie działa perfekcyjnie, jeszcze szwankuje. Wpływ na to mają wspomniane obostrzenia, wiele rzeczy wykracza poza pole działania producenta boksa, tego się niestety nie da obejść, ale nie zapominajmy, że taki A10, dzięki mobilnemu systemowi jaki na nim „siedzi” jest future proof. Oczywiście pod warunkiem utrzymania wsparcia i możliwości przyszłej instalacji nowych wersji oprogramowania systemowego, ale to – jak zapewnia producent – mamy mieć w standardzie.

Zobaczmy zatem jak to jest mieć takiego wszystkograja, skrzynkę eliminującą konieczność użytkowania w kinie i w audio jakiegoś komputera, pozwalającą na integrację z torem audio, odtwarzającą dowolne treści ze wsparciem dla najnowszych formatów audiowizyjnych. A10 był dawcą treści dla systemu opartego na wykorzystywanym w roli procesora dźwięku OPPO BDP-205 (zapowiedź) oraz Auralic Polaris (w konfiguracji power DACa, tj. wzmacniacza czepiącego sygnał via USB z Egreata, patrz nasze pierwsze wrażenia) oraz konstelacji innych ampów (bo wiele kanałów), amplitunerów (bo obadanie współpracy), licznych głośników oraz akcesoriów AV (ekstraktory). Jako ekran testowy służył nam najnowszy odbiornik Samsunga UHD quantumdot o przekątnej 65″.

Nie przedłużając ponad miarę wstępniaka, zapraszam do zapoznania się z naszymi wrażeniami z testu odtwarzacza sieciowego A10:

» Czytaj dalej

KEFy LS50 Wireless ze wsparciem w ROONie!

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
Zrzut-ekranu-2017-09-15-o-13.37.40

Od wczoraj KEF LS50 Wireless są w pełni kompatybilne z ROONem! Ile im to zajęło od chwili zapowiedzi? Miesiąc. Mistrzowie! Właśnie na takie wsparcie można liczyć w tym front-endzie. Wróć. W pierwszym ekosystemie audio. To bardziej odpowiada prawdzie. Jak wcześniej wspominałem KEFy (patrz wrześniowy wpis o zapowiedzi wprowadzenia obsługi) nie są w związku ze specyfiką konstrukcji „ROON Ready”, mamy pewne ograniczenia w zakresie obsługi protokołu RAAT (tylko jedna para może pracować w ramach systemu / Core, innymi słowy nie ma opcji wielostrefowej w przypadku KEFów… dwóch par nie podepniemy). Inne ograniczenia związane są z niektórymi funkcjami tj. szybkie przełączanie (strefy) czy konfig. zaawansowanej ścieżki sygnału. To ostatnie postaram się obadać (może szybciej będzie, jak zapytam kolegów z Premium Sound (parz nasz test LS50 Wirelessjakie możliwości przetwarzania sygnału oferuje nam oprogramowanie na KEFach). Po dodatkowe szczegóły ponownie odsyłam do naszego wcześniejszego wpisu, zapowiedzi, gdzie znajdziecie informacje o front-endzie (z dużą liczbą linków do publikacji jakie się ukazały na łamach HD-Opinie.pl poświęconych oprogramowaniu Roon Labs.).

Użytkownicy bezdrutowych LSów mogą od wczoraj korzystać z możliwości jakie oferuje ROON, przy czym developer zaleca podpięcie głosików skrętką do routera, rezygnację z WiFi na rzecz LANu (sugerowałem takie podłączenie we wcześniejszym wpisie). Stabilność działania sieci przewodowej nadal gwarancją bezproblemowego działania streamu. Każdego wymagającego streamu. Warto to sobie przyswoić – ostatnie testy skrzynek z bardzo zaawansowanymi, nowoczesnymi modułami sieciowymi (bezdrutowymi) od Auralika, eGreata oraz Oppo uświadomiły mi, że nawet bezpośrednia bliskość punktu dostępowego (solidny, choć nie topowy router skonfigurowany pod najmniej „siejące” kanały) niestety nie gwarantuje w pełni bezproblemowej pracy. Dropy, choć bardzo rzadkie, jednak się zdarzają (WiFi), a to – cóż – psuje wrażenia, bo można to przecież swobodnie porównać z podniszczoną płytą winylową (to jeszcze, tam trzaski to cecha charakterystyczna tego typu źródła), albo lepiej – z przeskakującą płytą CDA. Co prawda tutaj jest to całkowicie przypadkowe i w sumie niepowtarzalne (bo związane z problemami transmisji, a nie nośnika, jakiegoś uszkodzenia pliku itp), ale co z tego, jak wywołuje ten sam efekt (cyt.: „no rzesz k…”, a w wydaniu mniej wulgarnym, uskutecznianym w redakcji: „Drogi Janie, do dupy takie granie”).

Konkretnie zatem: łączcie skrętką, sam tak robię na co dzień, jak bezdrutowo to jakieś AirPlay’a, jakieś Spotify Connecty (tu to tylko zdalne sterowanie btw i dlatego tak to lubimy) czy inne Bluetooth’y. Jak ma grać bez kabla to niech gra z handhelda/komputera na szybko, bo po to właśnie to jest: na szybko. A jak ma grać stabilnie jak skała, jak stream jest bardzo wymagający (…a jest! Grane wielokanałowe DSD to nie w kij dmuchał) to przewód być musi. Wspomniane testy strumieniujących co popadnie klamotów udowodniły mi to bezdyskusyjnie. I jeszcze jedno – wszystkie kluczowe elementy infrastruktury roonowego toru także na skrętce, tak jak to u nas od chwili instalacji software wygląda: Core na LANie, NAS na LANie, Bridge (tam gdzie to możliwe) na LANie. Laptopy siłą rzeczy często korzystają z połączenia bezdrutowego, to zrozumiałe, ale Malinki, Squeezeboksy, jakieś HTPC (jak u nas) – to wszystko także na LANie. Jak źródło jest z definicji bezdrutowe, takie jak opisany (także pod ROONem) Sonos Play, to wiadomo, ale gdzie tylko można LAN. W sumie to ma głębszy sens, bo streaming w głośnikach bezprzewodowych, jakiś źródłach airplay’owych to maksymalnie 16/44, nie ma tam aż takich wymagań. Zabraknie gniazdek w routerze? Przełączniki LAN (multiswitch’e) tanie są, kupujemy i już.

 

Z kronikarskiego obowiązku wypada wspomnieć także o innych b. istotnych usprawnieniach: bardzo ważne załatanie obsługi źródeł sieciowych pod Core dla Makówek (u mnie średnio raz na kwartał robił ponowne przeszukanie biblioteki, gubiąc ścieżkę do NASa – automatycznie, szybko, ale gubił… teraz mam nadzieję będzie bezproblemowo), poprawki dotyczące tworzenia backupów (w tym tworzenia takich, automatycznie, na dropboksie) oraz możliwość załączenia ZDALNEGO TRYBU DOSTĘPU DO NASZEGO KONTA dla supportu ROONa… coś, czego w ramach licencji nikt w takim software nie oferuje! Zdalne wsparcie to świetna wiadomość dla osób w ogóle nie obeznanych z działaniem software oraz (ogólnie) komputerów. Zamiast przesyłać zzipowane logi (to już brzmi dla niektórych koszmarnie, nieprawdaż? ;-) ) od teraz można po prostu dać dostęp grupie wsparcia i ta sprawdzi co jest nie tak pod maską. REWELACJA. Diagnostyka i rozwiązywanie problemów będzie odbywało się znacznie szybciej. Standardowo poprawiono wydajność także pod kątem wolniejszych rozwiązań (ucieszą się użytkownicy NASów wykorzystywanych jako serwer Roon Core na Atomie) oraz wprowadzono obsługę 32bitowego Linuksa (x86) w ramach ROON Bridge (to świetna wiadomość dla wszystkich, którzy chcieli wykorzystać jako końcówki (end-pointy) stare laptopy, stare komputery z zainstalowanym oprogramowaniem systemowym Open Source). Od teraz da się, a biorąc pod uwagę usprawnienia w zakresie wydajności nic nie stoi na przeszkodzie, by dowolny, leciwy sprzęt z szybkim systemem operacyjnym (odpowiednia dystrybucja, a jest tego na kopy) przekształcić w ROONową końcówkę z jakimś DACzkiem. To także ważne dla osób budujących „lekkie” systemy… cóż, czują bluesa. Tak to można podsumować :)

A, i jeszcze jedno, użytkownicy Mini (zaktualizowaliśmy naszą recenzję, patrz link podany niżej) doczekali się pełnego wsparcia i ikonki (miał nie być, no tak się Auralic odgrażał, ale te tysiące maili zrobiły swoje! ;-) )

Oficjalne, od wersji 1.3 build 262 mamy nowe ROON Ready:

  • Auralic ARIES MINI (patrz test)
  • Trinnov Amethyst & Altitude32
  • Sonore ultraRendu
  • NAIM Uniti Star, Uniti Atom, and Uniti Nova

PS Ważne: przed i w trakcie użytkowania LSów z ROONem aplikację firmową trzeba wyłączyć.

KEF LS50 Wireless z Spotify Connect. Dlaczego to takie ważne? Ano dlatego…

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
s

KEFy LS50Wireless never ending story. No, ale przecież właśnie o to tutaj chodzi! Masz coś, co będzie zawsze na czasie, będzie ewoluować zgodnie z kierunkiem obranym przez całą branżę. Do LS50 Wireless będziemy na pewno cyklicznie powracać, bo to właśnie taki produkt, który podlega ciągłym doskonaleniom, uzupełnieniom. Ostatnio pisałem o bliskim już upgrade „systemu zaklętego w głośnikach” pozwalającemu na pełną integrację KEFów z ROONem. Ten end-point, jak już słowo stanie się ciałem, będzie o tyle niezwykły że połączy dwie rzeczy: pełną integrację sprzętowo-softwareową w ramach propozycji Roon Labs oraz opisane także niedawno zaawansowane tryby DSP pod określoną konstrukcję (patrz wpis o słuchawkach Audeze). Całościowe rozwiązanie, pierwsze takie kompleksowe na rynku. Ok, ale nie o tym wpis, a o czymś innym… o Spotify miało być i będzie. Najpopularniejszy serwis streamingowy audio na świecie na razie testuje temat bezstratnej kompresji i obecnie trudno wyrokować kiedy taki strumień się pojawi. Jest jednak coś, co od razu (po wprowadzeniu takiej wersji streamingu) będzie faworyzowało propozycję Szwedów. To coś bardzo, bardzo istotnego. Coś co już teraz ma znaczenie.

TO WŁASNY PROTOKÓŁ TRANSMISJI. Tak, od ponad roku mają coś takiego jak SPOTIFY CONNECT, a to moi drodzy klucz do sukcesu, coś co ma cholernie duże znaczenie (od strony biznesowej ma i technologicznej ma). Własne rozwiązanie pozwala na budowę czegoś więcej niż tylko oferty strumieniowania audio, pozwala na budowę własnego ekosystemu, własnego rozwiązania oferowanego na rynku w wielu produktach audio. Nie tylko HiFi, nie tylko kino, ale także inteligentny dom, inteligentne auto, elektronika ubieralna… to bardzo poszerza możliwości rynkowej ekspansji, wręcz skokowo, pozwalając jednocześnie stworzyć coś, do czego dąży każdy wielki gracz IT: standard. Łatwość integracji z jednej, tworzenie rozbudowanych rozwiązań w oparciu o MOJĄ technologię to coś, co stanowi klucz do sukcesu. Doskonale zdaje sobie z tego sprawę Google (Cast), Apple sobie zdaje (AirPlay2), zdają sobie także ci, którzy chcą czegoś innego, niezależnego od widzimisię gigantów technologicznych (vide DTS PlayFi). Tak, rywalizuje tutaj parę pomysłów na przesył dźwięku (oraz obrazu), jednak to właśnie Spotify w odróżnieniu od wymienionych łączy dostęp z technologią bez ambicji (własnych ambicji) tworzenia hardware, w ramach swojego streamu. Czytaj nie narzuca jedynie słusznego rozwiązania, a daje wszystko co niezbędne, o ile ktoś wybierze spotify’jowy stream. Dlatego właśnie jest tak atrakcyjne, dzięki bardzo dobrej implementacji (wzorcowej wręcz), multiplatformowej, oderwanej od wojenek prowadzonych przez wspomnianych gigantów, stanowi realną alternatywę. Coś niby obok, a jednak właśnie zamiast. Pod warunkiem, że na ekranie będzie wyświetlany czarno-zielony interfejs własnego serwisu ;-)

I tutaj wracamy do tytułowego Spotify Connect w jakże dobrze nam znanych bezdrutowych KEFach. Wprowadzenie tego rozwiązania to natychmiastowy dostęp do Spotify’a, BEZPOŚREDNIO. Tak działa własny, niezależny (od hware) protokół transmisji – aplikacja na sprzęcie nie jest już odtwarzaczem, a jedynie sterownikiem, całkowicie uniezależnia nas to od sprzętu (wcześniej) źródłowego. Teraz źródłem jest zdalny serwer, pobieramy muzykę wprost z sieci, a nie za pośrednictwem urządzenia (od teraz już tylko) sterującego. To właśnie uzależnienie od handhelda (lub komputera) w przypadku AirPlay’a było i jest jego najpoważniejszą wadą (opóźnienia, brak bitperfect, ograniczenia w parametrach i obsłudze tj. wiele stref choćby). Dopiero AirPlay 2 z tym zrywa, tylko po jakim (dłuuuugim) czasie zrywa? Ano właśnie. Spotify Connect to nasze KEFy (end-point, odtwarzacz) oraz serwer (źródło). Medium jest światłowód/miedź/skrętka… szerokopasmowe łącze internetowe. Nie ważne na czym odpalamy aplikację Spotify, czy jest to stary rzęch (blaszak przedpotopowy ;-) ), jakiś mocno już leciwy netbook (pasywne chłodzenie), taniutka Malinka (polecam!), czy przestarzały, zbierający kurz tablet. To może być idealny (o ile daje nam odpowiednio dobre UX/UI) sterownik dla Spotify Connect na tytułowych KEFach. Ot wystarczy odpalić apkę, albo przeglądarkę i już. Sterujemy odtwarzaniem, odtwarzanie zaś pozostaje w domenie tego, co gwarantuje odpowiednią jakość, stabilność i uniezależnia nas (raz jeszcze) od „komputera”.

Mam nadzieję, że wytłumaczyłem powyżej dlaczego to takie ważne, takie istotne, a wartość tej aktualizacji jeszcze wzrośnie, gdy Spotify postanowi dać nam jw. lepszy materiał, gdy zdecyduje się na bezstratny stream (rozmawiają z MQA btw). Do tego wszystkiego dodajmy nadal najlepszą aplikację dostępową (działającą wraz ze Spotify Connect jako sterownik, czyli jako to, do czego została stworzona, co stanowi sedno, najważniejszy jej element) i mamy komplet. To KEFy (albo – uogólniając – inny wysokiej klasy sprzęt wspierający to rozwiązanie) zajmują się odtwarzaniem, czyli tym co robią najlepiej. To przykładowo nasz telefon steruje z najlepszej póki co aplikacji (czyli robi to, co mu najlepiej wychodzi). Tak, mamy tutaj nadal strumień stratny, jakość nie taką jaką byśmy sobie docelowo życzyli (mam tu na myśli najlepsze źródła, wyczynowe materiały, bo konia z rzędem temu, kto bezbłędnie w próbie ABX odróżni ten sam kawałek odtwarzany na KEFach via Tidal vs Spotify Connect), ale jest to wstęp do czegoś ważnego. Oczywiście każdy się nam rozpycha i chce żeby jego było górą… za moment będzie wspomniany AirPlay2, będzie walka kto wygra wyścig o strefy (i kupi). Wiadomo. Na tym to polega i wokół pieniądza się to wszystko kręci. Spotify ma mocne argumenty po swojej stronie. Od wczoraj jest już dostępne na najbardziej póki co nowoczesnym systemie audio (patrząc na ten projekt także pod kątem zmian zachodzących w całej branży) jaki możemy zakupić w sklepie.

Aktualizacja do pobrania pod tym adresem: KEF International support

AirPlay 2 to soft, nie hard…ware! Sonos wprowadzi to, to na początku 2018 roku

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
RXV02023-1024x682

Wspominaliśmy już parokrotnie o nowym protokole Apple, przy czym gównie w aspekcie nowości funkcjonalnych jakie AirPlay 2 wprowadza. Wraz z informacją o wprowadzeniu obsługi w głośnikach Sonosa pojawiła się bardzo istotna informacja o podstawowej różnicy między pierwszą a drugą generacją protokołu. Jak wielokrotnie pisałem na łamach, jabłczana firma, chciała konkretnie zarobić na swoim standardzie bezdrutowej transmisji obrazu i dźwięku, stąd AirPlay pierwszej gen. był rozwiązaniem nie tylko softwareowym, ale przede wszystkim hardwareowym. Kompatybilność z AP wymagała odpowiedniego wyposażenia danego urządzenia, które musiało dysponować odpowiednim układem. Do tego wszystkiego zgodność wymagała wykupu licencji. Pamiętam, że pierwsze urządzenia na rynku, zgodne ze standardem, wymagały uiszczenia 50$ opłaty, co producenci przerzucili na konsumentów – stąd początkowo bardzo drogi sprzęt z AP, jedynie rozwiązania jabłkowe miały przystępne ceny, choć i tak do tanich nie należały (Apple TV / AirPort Express). Z czasem się uspokoiło, ceny licencji / zgodności spadły do dużo niższego poziomu, ale tak czy inaczej już na etapie projektowania klamota trzeba było zawczasu uwzględnić AP, albo nie uwzględnić (i zrezygnować definitywnie z obsługi tego standardu).

W przypadku AirPlay 2 jest zupełnie inaczej. Ten nastawiony na obsługę wielu strumieni (strefy) protokół nie wymaga żadnego ekstra rozwiązania sprzętowego, to czysto programowa rzecz. To świetna informacja dla branży, bo oznacza że każdy, kto nawet dopiero po pewnym czasie (od wprowadzenia na rynek) zdecyduje się na wprowadzenie obsługi, uzupełnienie funkcjonalności będzie mógł to zrobić. Podobnie jak z kodekiem aptX (też softwareowe rozwiązanie) to od producenta zależy, czy udostępni nam opcję strefową by Apple czy lepsze SQ. Innymi słowy można dodawać AirPlay’a 2 (nową wersję) już po wprowadzeniu na rynek danego produktu, nie trzeba martwić się zgodnością sprzętową, bo ta od teraz po prostu nie jest wymagana. Wystarczy aktualizacja oprogramowania. To właśnie dzięki temu będzie możliwe uzupełnienie o takie możliwości bezprzewodowych głośników strefowych Sonosa. Zyskają po upgrade firmware zupełnie nowe możliwości – nie tylko będzie można z Maka, iPhone czy iPada przesłać strumieniem muzykę bez konieczności uruchamiania firmowej aplikacji Sonosa i dodawania w niej źródeł. Wystarczy wybór odpowiedniej opcji w panelu sterowania. Dodatkowo taki głośnik (takie głośniki) będą mogły współpracować z jabłkową przystawką telewizyjną – wystarczy prosta konfiguracja efektora w panelu sterowania set-top-boksa. Ostatnia aktualizacja wprowadzająca do tytułowych głośników z AP2 pozwala na przesłanie dźwięku z połączonego bezprzewodowo Apple TV, gdzie będziemy mogli ustawić sobie jeden z takich głośniczków jako alternatywę dla tego, co wydobywa się z telewizor.

Od 2018 będzie tutaj w panelu figurował Sonos

Ostatnią rzeczą, na którą warto przy okazji AP2 zwrócić uwagę jest nadal niewyjaśniona kwestia dokładnych parametrów transmisji. Niestety Apple nie ułatwia nam zadania, bo zamiast opublikować odpowiednią specyfikację ogranicza się do ogólników. Nie wiemy zatem nic o gapless, o bitperfect, o priorytetyzacji transmisji, o wykorzystanemu  w tej odsłonie protokołowi kodowania sygnału, wreszcie Apple milczy w sprawie szczegółowych danych nt. specyfikacji. Wiadomo natomiast, że wspomniana zmiana wymogów, szersze otwarcie związane jest z promowaniem własnych usług i technologii. Inni to właśnie robią, Apple przygotowując się na niższe wyniki finansowo-sprzedażowe, także stara się zabezpieczyć sobie tyły. Chodzi oczywiście o Siri oraz o Apple Music. W przypadku asystenta/ki to wraz z AP taka funkcjonalność pojawi się dla wszystkich zainteresowanych. Google jest otwarte i doświadczone we wprowadzaniu rozwiązań dla kogoś, kto do tej pory nie miał okazji. Od niedawna Sonos pozwala na pełną integrację z Aleksą (Amazon),a  od przyszłego roku system Sonosa będzie mógł integrować także Siri. Co więcej, wczoraj zapowiedziano nowy głośnik z wbudowanym mikrofonem – zapowiedź własnego, tego typu, produktu. Wygląda niemal identycznie (i zapewne) brzmi w pełni porównywalnie z redakcyjnym Play:1 (wygląda praktycznie identycznie, poza górą, która różni oba urządzenia). Niewielki, kompaktowy, dobrze brzmiący, dla mas. Nowy One (tym razem nie ma cyferki tylko są literki) to sześć mikrofonów, wspomniane wsparcie dla Google Assistant & Amazon Aleksa, a wszystko to za 199$ niebawem w sklepach (październik). Sonos przy okazji mocno przebudował aplikację sterująco-zawiadującego. Jest przejrzyściej, uwaga użytkownika skoncentrowana jest na źródłach muzyki, na samej muzyce, znacznie szybciej można rozpocząć odtwarzanie. O tym wszystkim jeszcze na łamach wspomnimy.

W co gra Google? Nasze trzy grosze naznaczone dźwiękiem

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
zhuhmyqycytnmvzdoymb

Google wyraźnie zmienia oblicze, ewoluuje. To już nie tylko gigant internetowy, nie tylko dawca największego mechanizmu przeszukującego globalną sieć, firma od danych (big data)… nie, od wczoraj to także ktoś z ambicjami by rywalizować z resztą świata na polu elektroniki użytkowej. Firma z Mountain View chce na serio zaoferować swój ekosystem oparty na swoim hardwarze, spinający to w czym jest najmocniejsza (patrz wyżej… dodajmy do tego jeszcze największego oferenta treści multimedialnych) z własnymi produktami z krzemu i plastiku. Google miało ambicje, by to o czym piszę, zrobić wcześniej. Miało. Z miernym rezultatem miało. Dzisiaj praktycznie nikt nie pamięta, ale przypomnę, nieudane próby ze znalezieniem sposobu na telewizję w dobie Internetu (liczne, naznaczone fiaskiem, „google tv”), starała się też przekonać nas do swoich (swoich?) telefonów oraz tabletów w kolejnych inkarnacjach linii Nexus, wreszcie (umarło, zanim się narodziło) w dziedzinie nas interesującej najmocniej – dźwięku – poniosła sromotną klęskę w postaci projektu Nexus-Q… głośnika, który choć ciekawy koncepcyjnie, nie miał żadnych szans z tym, co się wtedy rodziło (multiroom oraz pierwsze przymiarki do inteligentych głośników).

Pasmo porażek, bolesnych rozczarowań, trwało by pewnie dalej, gdyby szefostwo nie uświadomiło sobie, że te wcześniejsze próby były już na starcie skazane na niepowodzenie. Nikt nie opracował spójnej koncepcji, nie odpowiedział sobie na w sumie proste pytanie: ale po co my to w ogóle robimy, nikt nie miał – mówiąc wprost - pomysłu na Google hardware by Google (istotne to ostatnie, bo albo robisz coś sam i na serio, albo robią to inni za ciebie i na serio to finalnie nie jest). Zdano sobie sprawę, że każda kolejna próba jest skazana na porażkę, bo rynek jest już mocno obsadzony, jest już też nasycony i gdy się chce zaistnieć to trzeba inaczej, zupełnie inaczej. Zwiastunem tego inaczej były może nie spektakularne, ale właśnie sensowne, bo realizujące długofalową koncepcję, strategię, produkty tj. Chromecast (audio i wideo) oraz (bardziej) Chromebooki. Te ostatnie dzięki bardzo atrakcyjnej cenie, dzięki zaoferowaniu doświadczenia komputerowego w wersji light, odpowiadającego na potrzeby znacznej rzeszy potencjalnych klientów, stały się pierwszym znaczącym sukcesem Google na polu może nie tyle samego hardware (bo mówimy o platformie, samo Google też te laptopy klepie, ale nie to jest najważniejsze), co stworzenia bazy pod rozwój swoich projektów (sprzętowych oraz usługowych), stworzenia czegoś, co jest kluczem do sukcesu…

 

…własnego ekosystemu (Google Home). Google ma wiele argumentów, ma wiele elementów, które pozwalają na budowę własnego hardware, na rywalizację z potentatami (konkurencja zewnętrzna tj. Apple oraz wewnętrzna tj. Samsung) i odniesienie sukcesu. Wspomniane Chromecasty dają możliwość skorzystania z tego co od dawna oferuje Google na czymś, co może to wyświetlić, albo może zagrać w chałupie. Mimo, że mówimy o erze post-PC to tak naprawdę nie mówimy o czymś co konkretnie zastąpiło komputer, a mówimy raczej o wielu komputerach w różnej formie, które zastąpiły coś pojedynczego, konkretnego właśnie. Wczorajsza konferencja pokazała, że w końcu ktoś tu odrobił lekcję, wyciągnął wnioski z porażek i w końcu wie jak to zrobić. Czy są to rzeczy nowatorskie, odkrywcze, czy jest to coś, co zmienia rzeczywistość, coś naprawdę nowego, nowatorskiego? Nie, raczej nie. Patrząc na nowe głośniki, na nie-do-końca bezprzewodowe słuchawki nie widać w tym wszystkim żadnej rewolucji, ale to nie jest istotne, istotne jest to, że w końcu jest to spójne, że korzysta z potęgi danych gromadzonych przez lata przez Google, że jest to coś, co może w najlepszy możliwy sposób skorzystać z technologii, które właśnie wkraczają w nasze życie (i to jest ta rewolucja). I to jest najważniejsze, kluczowe w tym wszystkim. Czy wirtualna rzeczywistość, czy sztuczna inteligencja, czy rzeczywistość rozszerzona… tak, to wszystko się tu ze sobą łączy i pozwala na całościowe doświadczenie, na skorzystanie z tego, co oferuje dzisiejsza technologia.

Czy takie coś zastąpi nam tradycyjne stereo? Odpowiedź brzmi: tak, zastąpi. Wcześniej, czy później zastąpi.

Po tym przydługim, wyjaśniającym wstępie, warto napisać coś o tym, co internetowy gigant pokazał. Pominę tutaj telefony (od dawna nie piszemy o nich na łamach i niech tak już zostanie, czasami tylko incydentalnie nam się zdarzy, bo dźwięk vide fantastyczny V30), poza jednym krótkim komentarzem: właśnie umiera analogowe wyjście dla dźwięku, fizyczne połączenie efektora ze źródłem… wystarczy do Apple dodać Google i sprawa jest przesądzona), pominę nowy komputer oraz gogle VR, bo choć to rzeczy bardzo ważne (patrz wyżej) dla całokształtu, to dla nas (dźwięk) mniej istotne… skupię się na słuchawkach oraz głośnikach, bo …jest o czym pisać i jest nad czym dumać. Firma będzie od teraz oferować nie jeden, nie dwa, a aż trzy inteligentne głośniki. Te głośniki to niby nic wartego uwagi, bo przecież mówimy w przypadku dwóch mniejszych o małych, typowo „kuchennych” konstrukcjach, małych bezprzewodowych głośniczkach, a ten większy z ambicjami to też tylko przerośnięty, wyposażony w poważniejsze, ale nadal kompaktowe, przetworniki brat tych mniejszych (pozory mylą!). Niby tak, ale nie do końca tak, a nawet w ogóle nie tak i już tłumaczę dlaczego. W branży (audio) mówi się od jakiegoś czasu, że komputer, że bezprzewodowość, że stream zmienia wszystko, że przekształca nam system z takiego, jaki znamy, takiego klasycznego w formie w coś, co jest czymś z zupełnie innej beczki. Nagle wszystko staje na głowie, nagle okazuje się, że takie rzeczy jak dopasowanie, jak ustawienie, jak lokalizacja stają się wtórne, mniej istotne, że nam się to wszystko wtapia, integruje, „znika”. Nie łamiemy praw fizyki, tego co w akustyce ważne rzecz jasna, a dzięki technologii dopasowujemy rzeczywistość pod wymagania.

Popatrzcie na to od strony praktycznej, od strony – właśnie – umiejscowienia. Stolik audio? Przeżytek. Metry kabli? Przeżytek. Akustyka? W dobie DSP i zaawansowanej korekcji może się okazać, że zagra nawet w marmurowo-szklanej hali. Nagle wszystko się zmienia, a do tego dochodzą zupełnie inne rzeczy: rozpoznawanie mowy, sterowanie głosem, inteligentna asysta, jakieś rzeczy rodem z s-f (StarTreka). Dostęp do teści przestaje być w jakikolwiek sposób ograniczony, właściwie coś, co wcześniej nazywaliśmy źródłem wtapia się nam w przestrzeń użytkową, staje się czymś „wszędzie”. Te głośniki, tak jak i inne produkty tego typu, nie są tylko czymś na blat, albo półeczkę – nie – to jest moi drodzy przyszłość całej branży, bo umowne źródło jest wszechobecne, jest jw wszędzie. W formie kompaktowo-niezobowiązującej będzie to oferowane na masowy rynek w cenie od 49$ sztuka (Google Home Mini idealny deal dla producenta, który w ten sposób, tanim kosztem wprowadza proste końcówki zbierające dane, a dane to gigantyczne pieniądze), dalej będzie z większymi ambicjami vide HomePod oraz Google Home Max za ok. 350-400$ okupować nie jeden salon, wreszcie pojawi się w takiej, czy innej formie (stawiam na integrację z pomysłami gigantów IT w formie Cast czy AirPlay kolejna cyferka, co już się zresztą dzieje) w HiFi (to co powyżej, z ambicjami, może być poważną alternatywą) i high-endzie. Przy czym zmieni to HiFi i high-end nieodwracalnie, bo forma będzie tu podążać za treścią, będzie się zmieniać i dostosowywać.

Do czego dostosowywać? Ano do takich właśnie efektorów z wbudowaną inteligencją, zbierających dane i ciągle przetwarzających, ciągle analizujących i ciągle nasłuchujących jak Google Home, Google Home Mini czy Google Home Max. To będzie opcja dla kogoś, kogo aż tak bardzo nie kręci system stereo (który jednakowoż da się w przypadku tych strefowych, parujących się głośników stworzyć na zawołanie), albo opcja dodatkowa, bo nawet jeżeli będzie „poważny system” to go nie będzie. Jak to nie będzie?! Ano nie będzie, bo tor zaklęty w głośnikach (patrz nasze wrażenia KEF LS50 Wireless) to będzie wszystko, czego potrzebujemy. Jak drożej to Devialet Phantom w kolejnej wersji, jak (nawet) niby tradycyjna skrzynka to jednak taka jak Polaris od Auralica (bo ma absolutnie wszystko, jest kompletny pod każdym względem – taki wszystkograj). Dodajmy do tego potęgę software, potęgę trybów DSP, zaawansowanej korekcji (akustyka) i już wiadomo mniej więcej jak to będzie zaraz wyglądało. Będzie wyglądało zupełnie inaczej. Te produkty zwiastują ogromne zmiany, bo będą w każdym domu (w takiej czy inne formie, z takim czy innym logo – nieważne) i to będzie właśnie TO AUDIO, przy czym wcale nie na poziomie tranzystorowego radyjka czy boomboksa, a – patrząc na te wszystkie programistyczno-sprzętowe usprawnienia – po prostu dużo lepszym… różnica między budżetowym stereo a takim multiroomem zwyczajnie zniknie, przy oczywistych zaletach tego nowoczesnego, wtapiającego się, łatwego w obsłudze i dającego dostęp natychmiastowy do wszystkiego.

Ten najmniejszy z pokazanych to coś od strony jakościowej na poziomie wspomnianego radyjka. Ten większy (max), wcześniej wprowadzony na rynek, już niekoniecznie, a największy z dostępnym trybem parowania i ustawieniami pion/poziom (dwa woofery, dwa tweetery plus elektronika, przypomina Sonosa Play:3/5 btw) będzie zapewniał przyzwoity dźwięk, po korekcji, śledzeniu w czasie rzeczywistym, dopasowywaniu – słowem – technologii zaszytej w układach i oprogramowaniu. Każdy zagra w strefach, każdy automatycznie się zidentyfikuje w sieci, udostępni jak mu pozwolimy znajomym, przestanie grać jak wyjdziemy i wznowi granie jak wejdziemy, przekaże komendę odtwarzaj innym, w razie zmiany lokalizacji przez nas, albo w jakimś innym scenariuszu w ramach działania inteligentnej chałupy. To już właściwie jest, a zaraz będzie standardem. I nikt, zwyczajnie nikt, nie będzie sobie zawracał głowy klasycznym stereo, poza garstką, niszą, która w ten sposób zamanifestuje swoją odrębność. Może się okazać, że podobnie jak ze słuchawkami (tak, tak Beatsy, które zdominowały rynek >100$) , tylko jeszcze bardziej (bo słuchawki to jednak opcja, a cokolwiek z głośnikiem w domu to raczej norma) takie właśnie głośniki zastąpią to, co było. Czuję, że nastąpi to bardzo szybko i widzę po wielkich producentach audio, że zaczynają sobie to uświadamiać (zauważalne w katalogach przesunięcie na rzecz produktów dla mas, wprowadzenie do drogich systemów rozwiązań jakie znajdziemy w sprzęcie budżetowym – BT, CAST, AirPlay). Także to, w co gra Google, jest dla nas bardzo istotne, bardziej nawet niż nam się to może dzisiaj wydawać!

Google Pixel Buds to bezprzewodowe słuchawki, które wyróżniają trzy rzeczy rzeczy: nie są to dokanałówki, a raczej (nie)typowe pchełki, z kablem łączącym obie (co oznacza, że nie jest to odpowiednik jabłkowych AirPodsów) – to raz; dwa – czymś co ma je wyróżniać wcale nie są kwestie ułatwionej integracji ze sprzętem (jak u Apple), a translacja, tłumaczenie na żywo tego, co do nas mówią w języku obcym (40 języków obsługiwanych na starcie), coś co możemy kojarzyć z adamsowym Babel Fishem (Douglas Adams „Autostopem przez Galaktykę”). W praktyce może być różnie (rybka dawała pewność, że się dogadamy, tutaj jeszcze nieco brakuje), tak czy inaczej, to zapewne ten element będzie głównie eksponowany …plus integracja AI. Gdzie tu dźwięk, SQ zapytacie? No też jest ważny, bo po pierwsze BT 5.0 (lepsze parametry przesyłu możliwe), bo po drugie ergonomia ma być na lepszym poziomie niż w dokanałówkach właśnie – żadne ciało obce, a coś co nam bezinwazyjnie wypełnia małżowinę, dodatkowo potrafi dopasować swoje działanie do okoliczności. Sumując to, ponownie, algorytm będzie miał decydujące znaczenie jak i co usłyszymy. Warto oswoić się z takim scenariuszem, bo szerzej dotyczy to całego segmentu audio. Wspomniane tłumaczenia na żywo oraz integracja asystenta (Google Assistant, spoiwo dla wszystkich pokazanych, nowych produktów) mają być lepem, przekonać do słuchawek nieprzekonanych (i właśnie nie o muzykę tu się tylko rozchodzi!).

Z pierwszych wrażeń wyłania się obraz czegoś, co faktycznie daje namiastkę natychmiastowej interakcji ze sztucznym bytem, mówimy i od razu słyszymy odpowiedź, odpowiedź nacechowaną odczuciami, emocjami, nie robotyczne monosylabizowanie. Oczywiście Apple też zapowiadało, że ichnie Siri będzie mądre, użyteczne, praktyczne i nas zaskoczy. Rzeczywistość wygląda zgoła inaczej. Google jest tu górą, bo ma coś, czego Apple nie ma i mieć nie będzie (chyba że wykupi, no ale kogo? ;-) ), czytaj trzyma łapę na danych, na mechanizmach przeszukiwania, analizowania, kolekcjonowania oraz gromadzenia. To potężna przewaga. Google Buds należy zatem traktować podobnie jak AirPodsy, ale inaczej… jabłkowy produkt stał się najlepiej sprzedającymi się (ktoś zdziwiony?), najsensowniejszymi „prawdziwymi” bezprzewodówkami, choć cała koncepcja (patrz nasz artykuł poświęcony AirPlay) jaka za nimi stoi jest ściśle skorelowana z jabłkowym AI (Siri). Jednak z braku laku, sensownej alternatywy, odtwarzanie muzyki jest i będzie stanowiło istotny element w przypadku AirPodsów (nie zapominajmy o promowaniu ichniego streamingu Apple Music), odnośnie zaś produktu Google audio nie będzie aż tak ważne i (to raczej pewne) Buds nie sprzedadzą się tak dobrze i nie będą alternatywą (bo jednak przewód) dla produktu Apple. Nikt tu jednak nie będzie darł szat, bo te słuchawki mają być idealnym partnerem dla pozbawionych jacka Pikseli 2 (smartfonów) i będą. Wraz z tanimi goglami VR (nowa generacja) ma to być kompletne rozwiązanie dostępowe do świata Google i patrząc na to z tej perspektywy – będzie. Oczywiście od strony użytkowej w ważnym aspekcie czasu działania opisywany produkt powiela rozwiązania Apple: jest nosidełko/powerbank z czterema doładowywaniami, same słuchawki działają ok. 5 godzin na jednym. Proces parowania ma także być uproszczony i natychmiastowy (jak w jabłcu).

Sumując, audio nam się w pewnym sensie zdemokratyzuje. Więcej ludzi będzie korzystać (integracja w ramach instalacji domowych oraz nowego trendu, mody), więcej będzie zainteresowanych, więcej zwróci uwagę, ale nie będzie to audio takie, jakie obecnie nam się kojarzy. Tradycyjny system umrze, tradycyjne audio jest skazane na absolutną niszowość. To co nowoczesne będzie nawiązywać do tego, co masowe, a to co masowe będzie potrafiło dużo więcej niż… moglibyśmy przypuszczać. Także w dziedzinie SQ. Jeszcze dzisiaj przeczytacie nowe wieści o AirPlay 2, a następnie (ale już nie dzisiaj ;-) ) o paru nowych, awangardowych projektach z szansą nie tylko na sukces, ale na mocne oddziaływanie na całą branżę, na kolejne poważne zmiany jakich możemy już niebawem doświadczyć. Postęp technologiczny, komputerowe audio, dokonana na naszych oczach zmiana w sposobie dystrybucji i konsumpcji treści (ale to zabrzmiało) powoduje, że co chwila jesteśmy i będziemy zaskakiwani. Niestety era ciągłego aktualizowania, ciągłych zmian właśnie nadeszła. Nowe audio to audio zero-jedynkowe, to audio naznaczone linijkami kodu. Chyba już nieodwracalnie…

 

Seria G od Auralica. Czas na Lightning Link

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
AURALiC_VEGA-G2_Side

To się Koreańczycy rozpędzili. Nie jeden, nie dwa, a cztery nowe komponenty pojawią się niebawem na rynku. Auralic chce zaoferować bezkompromisowym melomanom całościowe rozwiązanie, przy czym cała nowa seria G to po pierwsze sieć z autorskim OS: Lightning Streaming, znany z poprzednich produktów (patrz nasz test Auralic Aries Mini oraz pierwsze wrażenia z testu Auralic Polaris), a po drugie – nowość – własne rozwiązanie oparte na złączu HDMI (I2S), pierwsze _takie_ na rynku. O co chodzi? Ano chodzi o to, że konstruktorom udało się stworzyć unikalny sposób dystrybucji danych, dwukierunkowy, nie ograniczony przez długość okablowania (w przypadku interfejsów I2S było to główne wyzwanie, główne ograniczenie w przypadku zewnętrznych połączeń między komponentami), eliminujący całkowicie najpoważniejszy problem PC Audio – opóźnienia czasowe. Brak jittera to kluczowa zaleta tego rozwiązania. To jest właśnie coś, co powoduje, że nowa seria G może być jednym z najlepszych produktów pozwalających na streaming z sieci / podłączenie komputerowego źródła muzyki.

Nowa seria G to aż cztery klamoty, które pozwalają stworzyć kompletny system streamingowy audio. Bez kompromisów!

  Jeszcze w listopadzie pojawią się ARIES G2 Streaming Transporter oraz VEGA G2 streamingowy DAC, a w pierwszej połowie 2018 roku na rynek trafią: SIRIUS G2 procesor upsamlingowy oraz LEO G2 Femto Reference Clock. Jak widać, dotychczasowe, podstawowe linie produktów Auralika tj. strumieniowce ARIES oraz daki VEGA zostają w serii G wzbogacone o dodatkowe, opcjonalne klamoty, które mają umożliwić osiągnięcie najlepszego możliwego rezultatu – osobny procesor audio (DSP) oraz precyzyjny zegar. Te dwa nowe komponenty (LEO oraz SIRIUS) mają stanowić cenne uzupełnienie, pozwalając na rozbudowę systemu (podobnie jak w przypadku testowanego u nas wielokrotnie M2Techa vide EVO 2).

  Warto parę słów poświęcić autorskiemu Lightning Link, przed omówieniem poszczególnych konstrukcji (patrz niżej). To dwukierunkowe łącze o niskim poziomie jitter, o przepustowości teoretycznej 18 Gbps (najszybszy transfer, poza Thunderboltem, jaki można wykorzystać w aplikacjach audio), wykorzystujące sprawdzony standard szybkiego interfejsu HDMI. Lightning Link zapewnia doskonałą kontrolę transmisji oraz sprawia, że muzyka nawet w ultra-wysokich rozdzielczościach (wyczynowe pliki DSD512/DXD384) nie będzie stanowiła żadnego wyzwania dla interfejsu, dodatkowo można spodziewać się znakomitych parametrów sygnału, braku jakichkolwiek zakłóceń.

Nowa VEGA. Streaming DAC. Potężne, ultranowoczesne źródło audio z autorskimi rozwiązaniami.
Własny OS. Integracja z ROONem. Słowem: bezkompromisowy projekt. I jakby tego wszystkiego było mało także pod topowe nauszniki

Jak wspomniałem, w przeciwieństwie do innych połączeń HDMI opartych na I2S, dwukierunkowy Lightning Link umożliwia działanie bez jittera wszystkim urządzeniom w danym systemie (opartym @ serii G). To wieloelementowe rozwiązanie, pozwalające na integracje wielu (a nie tylko dwóch) komponentów w ramach kompletnego sytemu grającego z plików. Zegarowanie informacji z urządzeń docelowych, takich jak VEGA G2, potrafi zapewnić perfekcyjną synchronizację danych ARIES G2, dodatkowo mamy w ramach przygotowanej przez Auralic-a propozycji zewnętrzny zegar (jeszcze wyższa precyzja) oraz procesor audio (dodatkowe możliwości konwersji oraz modelowania sygnału). Co bardzo istotne, Lightning Link przenosi również dane sterujące systemem do wszystkich elementów, począwszy od regulacji głośności po konfigurację silnika procesora, co pozwala wszystkim połączonym urządzeniom AURALiC na jednolity, zunifikowany interfejs sterowania. Innymi słowy mamy kompletne, cyfrowe, wolne od jakichkolwiek zakłóceń medium dla sygnału audio oraz dodatkowych danych (sterowanie).

  Z powyższego widać, jak poważna, jak nowatorska to propozycja. Kompleksowa i całościowa. Auralic jest przy tym konsekwentny: nie tylko oferuje własny OS (jeden z najlepszych na rynku), ale także pozwala na integracje swoich produktów z najlepszym ekosystemem (front-endem) audio: ROON. Zatem mamy wybór i to w obrębie dwóch najlepszych platform softwareowych. Tego w takim zakresie, na razie, nikt inny nam nie zaoferuje…

No dobrze, dość tych teoretycznych wywodów, popatrzmy jak konkretnie będzie się prezentować nowa seria G, czym postanowił nas tym razem zaskoczyć Auralic:

 

AURALiC ARIES G2 Streaming Transporter

Transporter strumieniowy ARIES G2 łączy bezprzewodowo domowy system audio ze wszystkimi, różnorodnymi źródłami muzyki cyfrowej, poczynając od sieciowych i USB, aż po serwisy online w formatach bezstratnych i radia internetowego (ambicją Auralika jest dostęp do WSZYSTKICH źródeł strumieniowych audio). Instalujemy dysk HDD lub SSD 2,5 cala, przekształcając ARIESa G2 we w pełni funkcjonalny serwer muzyczny, posiadający lokalną bibliotekę muzyczną o poj. nawet 4TB (de facto ograniczeniem są oferowane na rynku pamięci masowe 2,5″, których poj. nie przekracza obecnie wspomnianych 4TB). Sprzęt posiada najnowocześniejszą technologię izolacji galwanicznej oraz ultra czystą kontrolę zasilania, zapewniając nienaganną dbałość sygnału cyfrowego, który obsługuje. Podwójne zegary Femto i obudowa ekranująca zakłócenia EMI pozwolą na niezakłóconą pracę całego układu, gwarantując czyste od zakłóceń środowisko dla sygnału audio.

ARIES G2 jest urządzeniem, które łączy źródła muzyki o najwyższych rozdzielczościach i dostarcza je DAC-a poprzez niezawodne i precyzyjne złącza wyjściowe, w tym interfejs AURALiC Lightning Link, szybkie USB audio 2.0, AES / EBU, cyfrowe koaksjalne oraz TOSLINK. Procesor ARIES G2 jest o 50% szybszy od oryginalnego ARIES Streaming Bridge, z dwukrotnie większą pamięcią systemową i masową. Oznacza to jeszcze łatwiejszą obsługę rozdzielczości do DSD512 i PCM 32bit / 384K. Zastosowanie AURALiC Lightning Streaming umożliwia ARIES G2 łączenie się z plikami muzycznymi w istniejącej sieci WiFi, jak również oferuje dodatkowe funkcje, takie jak listy odtwarzania na urządzeniu, buforowanie pamięci, odtwarzanie bez przerw (gapless), bit po bicie (bitperfect), w wielu strefach (multiroom).

Wszystko to kontrolowane jest poprzez aplikację AURALiC na iOS, Lightning DS lub dostęp do programu Lightning za pośrednictwem nowego interfejsu internetowego na każdym urządzeniu smart. Dodajmy do tego piękny wyświetlacz na froncie prezentujący okładki, wszystkie niezbędne parametry. Oprócz zgodności z AirPlay, ARIES G2 jest certyfikowanym punktem końcowym Roon Ready do łatwej integracji z oprogramowaniem Roon, co czyni go jednym z najbardziej elastycznych streamerów dostępnych w świecie HIFI. ARIES G2 będzie kosztował 16 999 PLN brutto bez wewnętrznej pamięci masowej. Klienci mogą zainstalować dowolny 2,5-calowy dysk twardy lub zamówić ARIES G2 z fabrycznie zainstalowanym napędem SSD przeznaczonym do przechowywania muzyki na urządzeniu.

 

AURALiC VEGA G2 Streaming DAC

DAC strumieniowy VEGA G2 jest urządzeniem, które przetwarza wszystkie współczesne cyfrowe formaty muzyczne o najwyższej rozdzielczości, aż do DSD512 i PCM 32-bit / 384KHz. Jednak VEGA G2 jest również w pełni funkcjonalnym streamerem, zdolnym do łączenia się bezpośrednio z cyfrowymi źródłami muzyki. W porównaniu z oryginalną wersją VEGA, VEGA G2 posiada zupełnie nową strukturę, wykorzystując platformę Tesla (chip SoC ARM) do buforowania, przetwarzania i starannego regulowania dostarczaniem sygnału źródłowego do kości DAC (zlecony przez Auralic-a projekt układu). Po raz pierwszy w branży audio stworzono DACa, który działa niezależnie od częstotliwości sygnału źródłowego: VEGA G2 buforuje dane w taki sposób, który nie wymusza blokowania częstotliwości sygnału źródłowego. Nigdy wcześniej DAC nie potrafił całkowicie zarządzać czasem z własnym zegarem. W tym przypadku z niezwykle precyzyjnymi zegarami Dual 72 Femto Master, uwolniony od zewnętrznych ograniczeń, VEGA G2 oferuje działanie bez niepożądanego jittera.

  Sercem VEGA G2 jest platforma Tesla AURALiC, SoC wyposażony w czterordzeniowy chip ARM A9, 1 GB pamięci DDR3 oraz 4 GB pamięci masowej (@ OS, aktualizacje, wtyczki). To nowe rozwiązanie dostarcza 25 razy więcej mocy obliczeniowej od poprzedników, co przekłada się na zupełnie nowe możliwości w zakresie obróbki sygnału. Dodając do tego nową izolację galwaniczną, która umożliwia transmisję danych między obwodami pierwotnymi całkowicie oddzielonymi fizycznie, jednostki Dual Low-Noise Linear Purer- Power, jest jasne, że ten DAC uzyskuje sygnał analogowy tak czysty, jak tylko to możliwe.

  W pełni pasywna kontrola głośności, to kolejna nowa funkcja pojawiająca się w VEGA G2. Opiera się ona na unikalnej sieci rezystorów drabinowych zbudowanej przez firmę AURALiC i pobiera dokładnie zerowy prąd po jej ustawieniu. Prąd zerowy jest równy zerowej interferencji i jest to kolejna innowacja VEGA G2, która odzwierciedla wręcz obsesyjną dbałość o szczegóły. Wraz z modułem wyjściowym ORFEO klasy A, zainspirowanym klasycznymi projektami analogowymi, rezultatem końcowym jest niesamowicie wierny poziom prezentacji muzycznej. 

  Wraz z technologią Lightning Streaming, AURALiC VEGA G2 przejmuje wszystkie funkcje transmisji strumieniowej i łączność dedykowanego streamera. Po podłączeniu przez złącze LAN do sieci domowej, dostępne są wszystkie funkcje Lightning Streaming. Kontrola użytkownika odbywa się za pośrednictwem specjalnej aplikacji sterującej iOS AURALiC Lightning DS, a instalacja serwera Lightning Server dla VEGA G2 została ułatwiona dzieki nowemu interfejsowi internetowego z dowolnego smartfona, tabletu lub komputera. VEGA G2 jest certyfikowanym punktem końcowym Roon Ready, co zapewnia płynną integrację z oprogramowaniem Roon. Cenę rynkowa VEGA G2 Streaming DAC ustalono na poziomie 24 999zł. Sumując, dostajecie tutaj idealną alternatywę dla dowolnego komputera, w tym maszyn wyspecjalizowanych (tylko pod audio), a wyrugowanie PC z toru można łatwo osiągnąć tworząc w ramach ROONa system z serwerem ROCK (platforma CORE) i takim właśnie end-pointem jak VEGA. To idealne „zamiast” komputera w high-endowym torze grającym z plików (z sieci: lokalnie i z serwisów).

 

Zintegrowana rodzina: dodatkowy zegar LEO oraz procesor SIRIUS

W ramach serii G dochodzą jeszcze SIRIUS G2 Upsampling Processor i LEO G2 Femto Reference Clock. SIRIUS G2 to potężny cyfrowy procesor audio kompatybilny z większością urządzeń DAC, jednak swoje największe mozliwości pokazuje podczas pracy w połączeniu z innymi komponentami serii G, takimi jak ARIES G2 i VEGA G2. SIRIUS G2 stosuje najlepsze dostępne technologie przeznaczone dla najbardziej wymagających wyzwań związanych z przetwarzaniem sygnału, takich jak upsampling oraz korekcja przestrzeni, korekcja akustyki pomieszczenia. LEO G2 natomiast zajmuje się kompleksową synchronizacją sygnałów, a komunikując się z innymi produktami serii G za pomocą Lightning Link, zapewnia podstawę dla najniższego poziomu jitter i szumów, wspierając cały system w zakresie dostarczania superprecyzyjnego podawania częstotliwości próbkowania, dodatkowo podnosząc jakość dźwięku.

Urządzenia serii G zostały zaprojektowane nie tylko dla wybitnych osiągów osobno, ale również do pracy w ramach całego systemu komponentów serii G. Prawdziwy potencjał każdego elementu da się w pełni wykorzystać, gdy są one połączone między sobą przy użyciu nowego protokołu komunikacyjnego AURALiC Lightning Link, maksymalizując zalety technologii poszczególnych komponentów i tym samym tworząc finalny cyfrowy system audio najwyższej klasy. Patrząc na tę propozycję, widzę to tak:

 

  • high-endowy system oparty na transporterze strumieniowym ARIES G2 oraz procesorze SIRIUS oraz opcjonalnie zegarze LEO. W takiej opcji mamy serwer muzyczny, autonomiczne, nie wymagające komputera rozwiązanie do grania z pliku, uzupełnione o dodatkowy procesor DSP (korekcja pomieszczenia, zaawansowana obróbka sygnału) z możliwością dodatkowego progresu w postaci precyzyjnego zegara taktującego, wszystko to spięte Lightning Link (i działające pod kontrolą firmowego OS). Alternatywą softwareową pozostaje tutaj ROON.
  • high-endowy system oparty na sieciowym DACu VEGA G2 będącym częścią systemu opartego na ROONie, będący głównym, najważniejszym end-pointem w takiej instalacji. Tutaj takie elementy jak SIRIUS czy LEO można potraktować jako opcjonalne dodatki, które nie są niezbędne do budowy najwyższej klasy systemu. Potężny silnik DSP z możliwością rozbudowy, zaszyty w oprogramowaniu ROON Labs. pozwoli na uzyskanie optymalnego rezultatu, konstrukcja przetwornika VEGA jest na tyle zaawansowana (moc: Tesla, superprecyzyjne zegary), że może to być jedyny klamot w takim torze, oczywiście z odpowiednim zapleczem w postaci solidnego serwera ROCK (magazyn oraz jednostka sterująca oprogramowaniem tj. Core). Tutaj ciekawym rozwiązaniem może być wykorzystanie potencjału VEGI w zakresie zaawansowanego przetwarzania sygnału (przykładowo konwersja PCM do DSD i to o wyczynowych parametrach takich jak DSD256 czy nawet DSD512).
  • dream team G2… póki co hipotetycznie: ALTAIR + VEGA opcjonalnie wzbogacone o dodatki tj. SIRIUS (bardzo się przyda, bo najdziksze ustawienia DSP wymagają bardzo konkretnej mocy obliczeniowej, a tu mamy dedykowany procesor DSP) & LEO, wszystko to pracujące pod kontrolą ROONa z CORE działającym @ transporterze / serwerze ALTAIR. High-endowe K.O. Zróbcie to Panie i Panowie z Auralic-a oraz z Roon Labs, zróbcie to! :-) Transport ma wystarczającą moc do tego, by być jednostką główną z jednoczesnym dostępem do lokalnej kolekcji (funkcja serwera), a oprogramowanie, gotowe dla takiego rozwiązania już jest i zwie się ROCK. Taki w 100% ROONowy system byłby czymś unikatowym na rynku i finalnie oznaczał wyrzucenie poza tor jakiegoś komputera – całkowicie zbędnego elementu w takim systemie. Jeszcze raz: zróbcie to!

 

Sumując, nowa seria G to emanacja tego, co najbardziej zaawansowane w dziedzinie domowego audio. Wspominałem o ogromnej roli oprogramowania (widać to wyraźnie, gdy wczytamy się w specyfikację, możliwości tytułowych urządzeń), o znaczącym wzroście znaczenia trybów DSP w systemach grających z pliku, wreszcie nie pomijalnemu (mającemu realny wpływ na osiągnięty efekt) zwiększaniu wydajności klamotów, budowanych z wykorzystaniem najnowszych technologii ze świata IT. Tu już nie wystarczy vintage’owa kostka i parę dobrej klasy komponentów elektrycznych od uznanych dostawców. Tu czymś absolutnie zasadniczym, kluczowym, jest know-how, jest własny software (rozbudowany do poziomu systemu operacyjnego – nie wystarczy napisać sterownik, gdy chcemy zaoferować coś bezkompromisowego) oraz jak pokazuje seria G, autorski sposób na spięcie tego wszystkiego w całość (Lightning Link). Sprzęt nie jest tani, ale patrząc na to, co realnie dostajemy (to otwarta architektura, ewoluująca wraz z postępem technologicznym) wydaje się uczciwie wyceniony. Jak wspomniałem, można zbudować coś, co obędzie się bez zwyczajowego, standardowego PC, coś dużo, znacznie lepszego, korzystającego z najlepszego oprogramowania na rynku.