LogowanieZarejestruj się
News

Nowy konwerter X-SPDIF & karta PCI-e X-Hi dla PC od Matrix Audio

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
Matrix

Szkoda, że od dawna nie mam żadnej budy ;-) Chętnie bym sprawdził ten interfejs @ PCI-e dla peceta, który dzięki komunikacji omijającej magistralę USB, może znacząco poprawić brzmienie z komputerowego źródła. Taki tuning to alternatywa dla wyspecjalizowanego PC, albo – właśnie – komponent wokół którego budujemy taki wyspecjalizowany komputer pod audio. Magistrala PCI-e pozwala na bezpośrednią komunikację z pamięcią oraz procesorem, nie ma żadnego współdzielenia, możliwych interferencji jak w przypadku magistrali USB. Pomyślimy ;-)

Drugi z zaprezentowanych ostatnio produktów to następca świetnego konwertera USB-SPDIF X-SPDIF 1 gen., który został u nas przetestowany. Konwersja cyfrowa często przynosi wymierny skok w zakresie SQ – pokazał to Matrix, pokazał to (na poziomie bardzo wyśrubowanym) M2Tech… można właśnie tak – to inna droga, przynosząca często zaskakująco pozytywnie efekty. W mojej opinii, taki konwerter potrafi zdziałać cuda, znacznie poprawiając brzmienie w porównaniu z samym USB. Gra u mnie SB Touch z mod. EDO wpięty via USB w konwerter M2tech-a (hiFace2) i to się znakomicie sprawdza. Taki tercet (dalej idzie sygnał koaksialem do rDACa) jako segmentowy streamer może swobodnie konkurować z bardzo drogimi, najnowszymi strumieniowcami.

Granie z USB na innym, lepszym poziomie

Parę słów na temat karty: Matrix X-Hi to kontroler, interfejs Audio USB na złączu PCI Express. Służy do precyzyjnego i wolnego od zakłóceń przesyłu sygnału audio USB do odbiornika cyfrowego lub przetwornika DAC. Posiada wyjście USB 3.0 oraz możliwość podłączenia zewnętrznego zasilania. Karta oferuje najwyższej jakości, wyizolowany przesył strumienia danych audio bez zakłóceń. To interfejs stworzony dla Hi-Fi, zaprojektowany został tak by zwiększyć jakość dźwięku, jaką możesz uzyskać z USB z komputera. Zwiększenie jakości przesyłu danych i znaczne zmniejszenie wpływu zakłóceń ze źródła zasilania, powoduje zmianę twojego komputera PC w wysokiej jakości źródło Hi-Fi. To niezależny kanał danych wykorzystujący precyzyjne zegary współdziałające z układem mostka USB 3.0 firmy Texas Instruments, które otwierają niezależny kanał danych dla strumienia USB Audio. Pomaga to ominąć sygnał ze sterownika USB zintegrowanego z płytą główną, unikając udostępnienia kanałów danych innym urządzeniom USB.

 

Zadbano o właściwe ekranowanie (obudowa), przy czym trzeba przemyśleć projekt dedykowanego audio PC – nie może to być super kompaktowy kadłubek, bo się karta nie zmieści, konieczne jest uwzględnienie montażu kart rozszerzeń. Warto zwrócić uwagę, że możliwe jest zastosowanie zew. zasilania.

To ostatnie, to właśnie coś, co pozwala ominąć „rafy” – mamy dedykowany sygnałowi audio interfejs, czysty, który mimo zastosowania USB (komunikacja z przetwornikiem) dysponuje podobnymi zaletami co opisywany (mocno entuzjastycznie) interfejs thunderboltowy TAC-2. Zasada działania jest tu identyczna – bezpośrednia komunikacja, brak interferencji z innymi urządzeniami, które współzawodniczą o dostęp do danych. Thunderbolt poza większą wydajnością, komunikuje się via PCI-e, nie ma tutaj mowy o jakimś wąskim gardle, nie ma mowy o opóźnieniach czasowych (jitter free). Tu, w przypadku tej karty, możemy oczekiwać tych samych korzyści. To robi różnicę!

Interfejs I2S może pracować w różnych trybach! Zdaje się, że to jedyne takie rozwiązanie na rynku konsumenckim 

Odnośnie zaś konwertera to: Matrix X-SPDIF 2 to nowa generacja znanego cyfrowego interfejsu X-SPDIF dla PC. Najnowsza wersja zachowuje świetną jakość poprzednika, odznaczając się przy tym dodatkowymi funkcjami w tym cyfrowym wyjściem koaksjalnym, optycznym, AES / EBU oraz I2S. Urządzenie obsługuje z powodzeniem sygnały PCM do 24bit/192kHz i DSD64 (DoP) na wszystkich złączach, zaś na porcie I2S PCM do 32bit/768kHz oraz DSD512! X-SPDIF 2 wykorzystując układ asynchroniczny XMOS U208. Jest to obecnie najbardziej zaawansowany interfejs audio USB klasy 2.0 na rynku. Urządzenie charakteryzuje się ultraniskim poziomem jittera, dzięki zastosowaniu bardzo dokładnego zegara femtosekundowgo. Z powodzeniem współpracuje z urządzeniami Windows, MacOS, jak i mobilnymi Android i iOS, na co pozwala możliwość podłączenia zewnętrznego zasilania. Układ XMOS i FPGA to nowa, 8-rdzeniowa jednostka przetwarzania sygnału cyfrowego. Jest to najbardziej zaawansowany interfejs audio USB klasy 2.0 dostępny na rynku. Od teraz Matrix pozwala podłączyć odbiorniki cyfrowe za pośrednictwem nowo dodanego portu I2S, dzięki czemu unikamy jakichkolwiek strat spowodowanych konwersją cyfrową.

 

Nowy Spartan to potęga, dodatkowo możemy liczyć na precyzyjne zegary oraz możliwość podpięcia jakiegoś liniowego zasilania (konwerter może pobierać energię ze złącza USB)

Bardzo chętnie sprawdzę u nas, jak się ten nowy konwerter X-SPDIF sprawdzi. Możliwe, że będzie okazja sprawdzić teoretycznie najlepsze, o największych możliwościach medium dla sygnału tj. interfejs I2S. Może się okazać, że w bardzo budżetowych realiach uda się zbudować coś, co gra lepiej od dowolnie drogiego DACa grającego z komputera via USB. Możliwości nowego Spartana są naprawdę imponujące, ta skrzynka może być wstępem do czegoś naprawdę wielkiego.

Obudowy od Pylon Audio dla Audio Physic! Brawo!

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
pylonaudio_gora

Jakoś mnie to nie dziwi. Wystarczy popatrzeć na produkty Pylona, zobaczyć jak wykonane są ich kolumny, jak biegli w stolarce są ludzie z Jarocina. Są, bo mają doświadczenie niemałe (branża meblarska), są, bo ciągle inwestują, tworząc najnowocześniejsze zaplecze produkcyjne w naszym kraju, są, bo – kochają to co robią. Gratuluję całemu Zespołowi, bo taki kontrahent jak Audio Physic to najwyższa półka, to ktoś kto wymaga najlepszej, bezkompromisowej jakości. I Pylon, jak widać, potrafi zapewnić taką jakość. Jak wspomniał w rozesłanej notce, prezes zarządu, Pan Mateusz Jujka: „wysokie standardy produkowanych przez nas obudów oraz zestawów głośnikowych sygnowanych marką Pylon Audio przekonało firmę Audio Physic o podjęciu z nami długoterminowej relacji biznesowej.”

To ważne wydarzenie także ze względu na dalszą dywersyfikacje profilu – firma będzie osiągać zyski nie tylko ze sprzedaży swoich zestawów głośnikowych, będzie także zarabiać na produkcji komponentów, przy czym teraz będą to trwałe, wieloletnie umowy ze znaczącymi producentami audio. To inny poziom, przynoszący nie tylko profity, ale właśnie budujący relacje w całej branży. Pamiętam początki, pamiętam jak przed siedmioma laty Pylon startował. Z tej perspektywy, to co udało się osiągnąć, to o czym wspomniałem powyżej, pokazuje jak wielki sukces udało się osiągnąć. Rozpoznawalność marki w Polsce to jedno, drugie to tworzenie sieci partnerów oferujących kolumny z Jarocina w całej Europie i poza nią stanowi najlepszy dowód na to, że Pylonowi nie grozi stagnacja, zamknięcie się w jakiejś regionalnej niszy. Dzięki szerokiej ofercie komponentów, które – jak widać – spotykają się z uznaniem i zainteresowaniem czołowych, zagranicznych wytwórców, można będzie de facto uniezależnić się od bieżących wahań, od bieżącej koniunktury (mam tu głównie na myśli lokalne uwarunkowania)…

Co dalej? Dobre pytanie. Na razie mówimy o specjalizacji, o kolumnach głośnikowych, samych głośnikach (własne konstrukcje) oraz umiejętnościach związanych z obróbką drewna, z lakierowaniem (bardzo duże możliwości w tym względzie) etc. To określony segment rynku audio. Ciekawe, czy firma będzie chciała, bazując na zbudowanej przez siebie rozpoznawalności, uznaniu dla marki, pójść dalej? Własna elektronika? A może własne słuchawki? Słuchawki to obecnie najszybciej, najmocniej rozwijany w branży audio temat, to coś, co daje ogromne pole do popisu. W naszym kraju, póki co, nikt nie wypromował konstrukcji, które zyskałyby uznanie na zewnątrz (vide rumuńskie Meze). Ogromny popyt, chłonny, globalny rynek oraz wielkie wyzwania technologiczne (nowe technologie oraz nowe materiały adaptowane w pierwszej kolejności właśnie w słuchawkach) to prawdziwe wyzwanie.

Myślę, że Pylon nas jeszcze nie raz zaskoczy…

Wielka rzecz, a cisza… obsługa USB audio 2.0 w Windows!

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
ScreenHunter_15 Jul. 06 11.55

Serio, nie rozumiem. Przeszło to zupełnie bez echa, a przecież mówimy o czymś bardzo ważnym. Po wielu latach Windows doczekał się NATYWNEJ OBSŁUGI UAC 2.0 (USB AUDIO 2.0)! Owszem, dzisiaj nie robi to już takiego wrażenia jak 7 lat temu (to wtedy MacOS otrzymał wsparcie dla lepszego audio właśnie, a dokładnie 15 czerwca 2010 roku, kiedy to premierę miał Snow Leopard 10.6.4), ale nadal jest to coś, co robi sporą różnicę. Od wersji Windows 10 Creators Update, dystrybuowanej od maja br., możecie zapomnieć o instalacji sterowników dla DACa. W końcu, wreszcie, nareszcie.

Tuż po instalacji Creators Update – mamy UAC 2.0 natywnie!

Nie robi to takiego wrażenia w 2017, ale upraszcza sprawę. Podobnie jak pod macOSem oraz Linuksem (też od dawna ma USB audio class 2) możecie podłączyć zewnętrzny interfejs audio bez konieczności instalowania dodatkowego sterownika. Ten staje się zbędny, co oznacza, że „pod Windą” od teraz mamy plug&play, a nie zabawę z dodatkowym oprogramowaniem, koniecznym (jak to było do niedawna) do działania (w pełni) urządzenia. W systemach MS mogliśmy liczyć na obsługę UAC 1.0, co oznaczało dźwięk o parametrach maks. 24/96 odtwarzany natywnie przez OS. Teraz można grać pliki PCM 24 bit / 384 kHz oraz DSD (DoP) aż do DSD256 (niewykluczone, że dźwięk o wyższych parametrach też system obsłuży… tak obsłuży vide obrazki).

Wersja 1703 z pełną obsługą audio 2.0 via USB. Ile trzeba było na to czekać… 

Czy to oznacza automatycznie, że każdy DAC będzie działał po podłączeniu do PC z powyższym oprogramowaniem bez wsparcia ze strony dodatkowego oprogramowania? Nie. Większość pewnie tak, ale niektóre niekoniecznie, mogą nadal potrzebować wsparcia ze strony sterownika dedykowanego konkretnemu modelowi przetwornika (tak na pewno będzie np. z KORGiem, głównie przez wzgląd na natywną obsługę 1 bitowego strumienia audio / formatu DSD). Przy czym dzisiaj interfejs USB w DACach najczęściej obsługiwany jest przez raptem parę popularnych rozwiązań i tutaj nie powinno być problemu. Takie rozwiązania jak software Thesycon-a (XMOS), autorskie stery M2Techa… to wszystko przestanie być potrzebne z jednym zastrzeżeniem.

Obsługa UAC 2.0 realizowana jest przez systemowe WASAPI, co w sumie nie dziwi, co jest zrozumiałe. Windows 10 UAC2 działa via WASAPI (implementacja wyłącznie tego protokołu), nie ma mowy o ASIO. Cóż, ASIO to nie MS, to licencja Steinberga (zdaje się, że nadal wymagane jest uiszczanie opłat za wykorzystanie). Oczywiście nic nie stoi na przeszkodzie, by w najnowszej wersji systemu MS nadal korzystać z alternatywnego rozwiązania. W takiej sytuacji będzie jednak zachodziła konieczność rekonfigurowania programowego odtwarzacza (zmiana z WASAPI na ASIO) wraz z instalacją sterowników dostarczonych przez producenta sprzętu audio (względnie zostanie przeprowadzona automatyczna instalacja w ramach bazy zaszytej w systemie operacyjnym). Pozostaje taka alternatywa, także bez obaw – jak komuś zależy na zachowaniu dotychczasowych ustawień DACa w systemie to będzie mógł nadal z tego, co miał, korzystać.

Oczywiści żadnych informacji na temat UAC 2.o w opisach „co nowego” nie znajdziemy. MS uznał, że nie ma czym się chwalić. Biorąc pod uwagę 2017 rok, faktycznie nie ma specjalnie czym się chwalić (sto lat za…). Jednak dla branży, dla użytkowników to ważne wydarzenie i pewna wskazówka dotycząca przyszłości dystrybucji muzyki oraz rozwoju PC Audio

Wprowadzenie hardwarowego interfejsu (protokołu) UAC 2.0 do systemu operacyjnego nie przekreśla zatem możliwości użytkowania niektórych DACów w oparciu o ich specyficzne rozwiązania, wymagające (aby móc skorzystać z całego potencjału podpiętego przetwornika) dodatkowego sterownika. Jak ktoś ma ochotę na niskopoziomowy interfejs ASIO4ALL stworzony właśnie na potrzeby Windowsa to bardzo proszę, nie ma przeciwwskazań. To (na marginesie) wcale nierzadka sytuacja, gdy DAC dopiero z AISO pozwala odtwarzać materiał o wyższych parametrach (np. obsługa DSD).

Można, ale z czasem (wydaje się) nie będzie sensu bawić się w takie konfigurowanie. Do tej pory obsługa audio w Windows daleka była od doskonałości – nie, to za delikatne stwierdzenie – to był totalny chaos i bałagan, prowadzący często do problemów z odtwarzaniem dźwięku. Dropy, brak komunikacji system-sprzęt, artefakty… któż tego nie doświadczył? Prawda? Teraz moi drodzy mamy wreszcie to, co trzeba. Systemowe rozwiązanie. Producenci muszą jedynie dostosować swoje produkty do tego, co oferuje Microsoft w najnowszym wariancie 10-ki i zamiast bawić się w konfigurowanie sprzętu (różne wersje ASIO, WASAPI, Directaudio, KS…no straszny mess!). Mamy bitperfect natywnie, bit po bicie, w dowolnej, spotykanej na rynku obecnie jakości oferowanej przez dostarczyciela treści.

Natywnie!

Czy to oznacza, że (jednak) plikowe audio nieuchronnie zmierza do optymalnej z naszego punktu widzenia formy? Muzyki bezstratnie skompresowanej, często o parametrach wyczynowych (hi-res), dostępnej w streamie? UAC 2.0 w Win właśnie to sugeruje, widać, że do tego zmierzamy. I dobrze! Bo plikowe audio, które jest przyszłością dystrybucji muzyki musi dążyć do perfekcji. Do stania się bezsprzecznie, bezdyskusyjnie najlepszym medium dla sygnału audio. Czekamy na ruch producentów sprzętu audio oraz dystrybutorów treści. Niech strumień o jakości (co najmniej) płyty CDA stanie się standardem, a hi-res (także to wyczynowe tj. DXD/DSD) będzie nie tylko ciekawostką, a ogólnie dostępnym dobrem dla zainteresowanych. Najlepsze realizacje, najlepsze materiały źródłowe… dzięki Internetowi każdy będzie mógł spróbować. Jak mp3 wystarczy, to wystarczy, a jak nie… to włączymy sobie usługę streamingową lub wdepniemy do sieciowego kramiku i hulaj dusza.

No to gramy hiresy na PC bez kombinowania :)

Poniżej (&powyżej) zdjęcia po upgrade naszego redakcyjnego PC. Z niepodpinanym wcześniej (a więc nie identyfikowanym, bez wgranych sterów) przetwornikiem iFI nanoDSD LE. Plug&play. Wreszcie.

» Czytaj dalej

Grafenowe słuchawki. Hit? Kit? Przełom w technologii głośnikowej?

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
MTAyNHg3Njg,15794984_15794946

Kickstarter. Dwa produkty. Grafen. Zalecana ostrożność? Z pewnością. Co łączy te dwie kampanie? Przede wszystkim wykorzystanie najnowszej technologii w kluczowym elemencie każdego audio efektora – głośniki wbudowane w tytułowe słuchawki wykonane są z grafenu. Każdy słyszał o tym, wywołującym ogromne zainteresowanie i nadzieje materiale. Grafen jest ultralekki i ultrawytrzymały. Interesują się nim praktycznie wszystkie branże, w tym także branża audio. Cóż, trudno się dziwić, bo materiał może stanowić, jako budulec, przełom w konstrukcji głośników. Tak, mam tu na myśli membrany. Kluczowy element każdego głośnika. Do tej pory niewiele się zmieniło w tym aspekcie, od lat mówimy o stagnacji, o braku jakiegoś radykalnego przełomu w zakresie materiałowym. Owszem, pojawiają się ewolucyjne zmiany w znanych (od dawien dawna) technologiach wytwarzania membran głośnikowych, ale to nie jest jakaś radykalna zmiana jakościowa, to usprawnienia, polerka… brak tu zupełnie nowego patentu na sposób reprodukcji dźwięku. Niektórzy wręcz stwierdzili, że niczego nowego nie da się  wymyślić. Mhm, akurat…

Te dwie konstrukcje mobilne: jedna wokółuszna, druga dokanałowa mogą być antytezą powyższego sformułowania. Mogą. Dzięki nanotechnologii, egzotycznemu (póki co) grafenowi można wykonać superwytrzymałe membrany głośnikowe, które dzięki swoim właściwościom pozwalają uzyskać teoretycznie dużo lepsze parametry od wszystkich wykorzystywanych do tej pory materiałów. Mylar, celuloza, aluminium, kevlar itd. itp. niczego, ponad to, co uzyskano do tej pory, nie zaoferują w zakresie reprodukcji dźwięku. Grafen daje nadzieję na prawdziwy przełom. Właściwości tego materiału pozwalają m.in. na prawdziwy przeskok w przypadku produktów mobilnych, korzystających z energii zgromadzonej w akumulatorze. W przypadku grafenu można radykalnie obniżyć potrzebne do napędzenia głośnika opartego na grafenowej membranie napięcie. Efektywność jest tu na zupełnie nowym poziomie, taki głośnik w odróżnieniu od tradycyjnego nie traci 99% energii jaką dostarcza wzmacniacz. Efektywność jest tu kilkudziesięcioprocentowa! W zależności od technologii można uzyskać odmienne rezultaty, tak czy inaczej to zupełnie nowa jakość.

Nie dziwi zatem, że to właśnie „gorący” segment słuchawkowy jest w awangardzie, to tutaj prawdopodobnie jako pierwsze pojawią się produkty oparte na grafenie. Co więcej, będą to konstrukcje mobilne – bo tutaj możemy spodziewać się bardzo konkretnego progresu, właśnie w zakresie długości pracy na baterii (nawet mimo braku postępu w technologiach związanych z akumulatorami – choć tutaj też, może się ten postęp dzięki grafenowi dokonać). Te dwa projekty właśnie nie przypadkowo należą do segmentu bezprzewodowych słuchawek na wynos. Oczywiście należy do tematu podchodzić z ostrożnością, bo po pierwsze crowfunding, po drugie nowa, jeszcze słabo rozpoznana w branży (przy czym mówimy tutaj o ludziach, którzy tworzą coś nowego, to naturszczycy, nie stoi za nimi potencjał wielkiej korporacji, doświadczenie jakiegoś dużego producenta audio), po trzecie efekt może być daleki od tego, co pokazują reklamowe foldery.

 Tak, to ten symbol właśnie. Grafen na muszli i w muszli ;-)

Słuchawki wokółuszne ORA korzystają z opracowanego przez twórców GraphenQ, materiału zoptymalizowanego pod kątem wykorzystania w takiej aplikacji. To lekka konstrukcja, przypominająca (formą) przetestowane u nas Furutechy (ADLe H128), wyposażona w sterowanie dotykowe na muszli (coś, co okazało się całkiem wygodnym patentem vide bezprzewodowe H8 firmy B&O) oraz system aktywnej redukcji ANC. Nie ma tutaj Bluetootha 5.0 (dokanałówki to mają), to co robi(ć) ma zasadniczą różnicę, to wspomniany grafen. Ludzie, którzy stoją za tym projektem, skupiają się na jakości dźwięku, na właściwościach brzmieniowych – te mają być na poziomie nieporównywalnym z klasycznymi rozwiązaniami, jakie oferowane są obecnie w modelach wykorzystujących tradycyjne membrany. To ma być przełom w zakresie reprodukcji dźwięku. Dużo lepsza efektywność, skokowo lepsza wytrzymałość grafenowej membrany, mają przekładać się na dużo lepszą pracę całego układu – membrana ma pracować znacznie bardziej precyzyjnie, znacznie szybciej reagować na sygnał, co zdaniem twórców przełoży się na zniwelowanie błędów w transmisji, lepszą rozdzielczość, dokładniejsze reprodukowanie muzyki. Czy faktycznie tak będzie przekonamy się za parę miesięcy (na marginesie, takie konstrukcje, podobne do opisywanej, mogą pojawić się jeszcze w bieżącym roku). Mają to być pierwsze takie, grafenowe słuchawki na świecie. Za projektem stoją duże amerykańskie uczelnie. Wiadomo, autorytet placówek naukowych ma budować wizerunek tego produktu.

W przypadku IEMów (Zolo) Liberty+ mówimy o czymś (jeszcze) bardziej awangardowym, bo zastosowano tam BT 5.0 (łatwiejsze i pewniejsze, stabilniejsze parowanie, jeszcze mniejsze zapotrzebowanie energetyczne modułu, lepszy zasięg), wprowadzono integrację popularnych asystentów (Amazon/Google/Apple) wreszcie w prawdziwie unikalny sposób ZMINIATURYZOWANO same doki. Słuchawki są wielkości koreczków (zatyczek) do uszu. To robi na mnie największe wrażenie w tym projekcie. To i wynikające z zastosowania membran grafenowych właściwości konstrukcji – mimo maksymalnej miniaturyzacji (popatrzcie jak wielkie, zazwyczaj bardzo widoczne i niekoniecznie wygodne są dotychczasowego produkty tego typu) te IEMy mają działać 3.5 godziny! To właśnie ten przełom. Ktoś powie krótko, ja powiem długo (o ile właśnie okaże się to prawdą, potwierdzone w testach), bo tu mamy coś, co gwarantuje najwyższy możliwy komfort użytkowania. Moim zdaniem to kluczowa cecha tego produktu. Idealne w zakresie dopasowania do kanału usznego słuchawki bezprzewodowe, dodatkowo nie mające (w odróżnieniu od konkurencji) negatywnego wpływu na nasz wygląd. Całkowicie neutrualne w tym zakresie, transparentne wręcz. Taka skala miniaturyzacji byłaby zwyczajnie niemożliwa bez zastosowania obu tych technolgii – tj. nowy Bluetooth oraz grafen. Redukcja zapotrzebowania na energię w tym projekcie z pewnością stanowiła główne wyzwanie dla inżynierów. Natomiast celem nadrzędnym była wg. mnie maksymalna miniaturyzacja. Nie jakiś wyczynowy czas działania na baterii (przewidziano najsensowniejszy patent, wzorując się na innych – etui/power bank z zapasem… aż 48 godzin doładowania… a nie jest to cegła z wielkim akumulatorem, tylko niewielka, podobna do innych tego typu, konstrukcja), a właśnie wygoda związana ze „zniknięciem” słuchawek. Są miniaturowe i są ultralekkie. Prawdopodobnie w ogóle nie czuć, że siedzą w uszach (oczywiście poza separacją od otoczenia).

Ok, to powyżej, to mój opis tego, co proponują w ramach crowfundingu pionierzy grafenowych słuchawek. Poniżej informacje opublikowane przez projektantów opisanych powyżej nauszników oraz IEMów, w języku Szekspira, w oryginale. Szczególnie wiele ciekawych, szczegółowych danych nt. konstrukcji umieściło ORA…

PS. Nie daję żadnych namiarów na kampanie, bo nie jestem naganiaczem. Jak ktoś się zainteresuje, to bez trudu znajdzie :)

 

 

LOUDSPEAKER HISTORY

Many of the recent advancements in loudspeakers and headphones have focused on the addition of digital processing (DSP). While DSP is a powerful tool, it can only act as a Band-Aid to mask the inherent performance issues of this century-old technology. ORA, instead, applies its expertise in nanotechnology and materials science to fundamentally improve the core of the loudspeaker and provide a level of quality and efficiency not possible from other consumer technologies.

 

Zwięzłe, syntetyczne ujęcie kolejnych etapów postępu technologicznego w branży audio. 

  » Czytaj dalej

Wow! Chcę to mieć! Wheel. Koło grające winyle. Niesamowity gramofon Miniot’a

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
eb8daa5d3cb3a85b372bd69a1200d0d4_original

Kickstarter to kopalnia niebanalnych idei, pomysłów, czasem z zadatkami na to COŚ, co mogłoby zrewolucjonizować rynek. Oczywiście to także tysiące poronionych projektów, które często są sposobem na zarobienie kilku gorszy przez ludzi uczciwych inaczej. To taki tygiel pomysłów. Lubię przeglądać sobie najnowsze kampanie, sprawdzając czy nie pojawiło się to… COŚ. I wiecie co, dzisiaj właśnie na to trafiłemna okrągły, dokładnie wielkości płyty gramofonowej (LP) gramofon inny, niż wszystko co do tej pory widzieliście, od tego co się na rynku pojawiło. Już sama forma to nie banał, ale umówmy się – przenośnych, szafograjacych, wbudowanych w meble, dziwacznych gramofonów było na pęczki. Ten tutaj zachwyca czystą formą, kompaktowością, ale to mało w zestawieniu z tym jak go mechanicznie oraz użytkowo zaprojektowano. TO JEST PRAWDZIWA BOMBA.

Po pierwsze ten gramofon nie ma klasycznego ramienia. Wkładka, cały mechanizm ukryty jest pod talerzem, cała część mechanizmu z igłą jest niewidoczna i doskonale zabezpieczona. Nie ma zatem problemu, by to cudo stało sobie w zasięgu dziecięcych łapek (no przesadziłem, ale specjalnie), nie ma problemu by je pionowo postawić z płytą zawieszona na talerzu, który to talerz z ruchomym modułem wkładki z czujnikiem podczerwieni wraz z pomysłowym manipulatorem stanowi esencję tego projektu. Ten manipulator (na przedłużeniu trzpienia) daje nam pełną kontrolę nad odtwarzaniem, realizując sterowanie w pełni elektronicznie, przy czym – co warte podkreślenia – gramofon od strony konstrukcyjnej, cały tor, ścieżka sygnału jest czysto analogowa, nie zachodzi tam żadna konwersja z udziałem zer/jedynek. Mamy wbudowane pre, jest ortofonowa wkładka, wychodzimy bezpośrednio na wzmacniacz, na kolumny standardowo, bez żadnego hokus-pokus (nie zdecydowano się na modne obecnie sprzęgnięcie interfejsu cyfrowego tj. USB, konwersji ADC …jak wyżej, czysty analog). Sterowanie pracą nadzoruje natomiast innowacyjny układ elektroniczny, stabilizowana wkładka pod talerzem współpracuje z działającym w podczerwieni sensorem, odczytującym w czasie rzeczywistym położenie płyty oraz kolejność odtwarzania (sic!).

Popatrzcie na to… Wow! Dostępne, trzy wybarwienia do wyboru

Specyfikacja… czekamy do grudnia (na lądowanie w sklepach / sieci… no kiedy będzie po prostu do kupienia)

Pamiętam japoński laserowy gramofon, który robił ogromne wrażenie (chodziło o unikatowe połączenie najnowszych technologii cyfrowych, wprzęgnięcie lasera w proces odtwarzania, bez udziału klasycznej igły). To było coś! To tutaj robi podobne wrażenie. Mechanizm „ramienia” wykonano z mahoniu, podczas gdy talerz będzie dostępny w trzech wariantach, z różnych rodzajów drewna: orzechowego, wiśniowego oraz ponownie z mahoniu. Oczywiście gramy odwrotnie niż na każdym innym gramofonie, odtwarzając to co jest na dole, rewers, bo tak działa jw. ten oryginalny płyto-graj.

Tak to, w skrócie, przedstawiają twórcy:

wheel_how_it_works_tonearm.gif1.mp4

 

 

Jak widać, sterujemy opisanym powyżej manipulatorem, nie tylko standardowo pauzując, wznawiając czy kończąc odtwarzanie, ale także możemy przeskakiwać utwory do przodu i do tyłu. Na górze manipulatora zamontowano białą diodę informującą o trybie działania urządzenia. Nazwa gramofonu jest dość oczywista – KOŁO, jako że mówimy o projekcie croufundingowym, wsparcie obarczone jest ryzykiem. Aby zachęcić osoby zainteresowane pomysłodawcy oferują 30% obniżkę ceny rynkowej gramofonu. Teraz zapłacimy 568€, gdy sprzęt trafi do sprzedaży za okrąglaka przyjdzie nam zapłacić 806€. Za całością stoi znany duet konstruktorów Peter Kolkman oraz Greet van den Berg. To ludzie doskonale obeznani z projektowaniem sprzętu audio, w tym gramofonów. Już teraz zebrano prawie 150 000, przekraczając trzykrotnie założony cel (50 tyś). Daje to nadzieję na urzeczywistnienie projektu w masowej produkcji, do czego obligują się twórcy. Do końca zbiórki zostało jeszcze ponad 2 tygodnie. Poniżej, w rozwinięciu, szczegóły konstrukcyjne (prototypu) na rycinach z opisem…

gramofon inaczej 2 

» Czytaj dalej

iPhone 7 Jet Black: parę słów o audio w kontekście nowych iPhonów

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
apple logos

Apple widzi świat audio, definiuje go, przez pryzmat swoich produktów oraz usług. To zrozumiałe, ale jest w tym podejściu pewien haczyk… firma nie uwzględnia w swoich zamierzeniach, rachubach tego, co dla wielu słuchających na co dzień muzyki stanowi istotny element, element którego się nie pomija. Chodzi o jakość brzmienia, dążenie do uzyskania jak najlepszego dźwięku. Ktoś powie – nisza, ludzie słuchają z YouTube (to nadal najpopularniejszy serwis …muzyczny na świecie), ogólnie zmienia się sposób konsumowania muzyki na taki, który z założenia inaczej akcentuje co ważne, a co nie (mobilne słuchanie, playlisty pod określoną aktywność, czytaj ma grać coś tam w tle). Apple oferuje masowe produkty, patrzy przez pryzmat setek milionów konsumentów i cóż – firmie wyraźnie nie zależy, by ścigać się z konkurencją w zakresie jakościowym. Widać to wyraźnie, gdy popatrzymy na zmiany (czy raczej ich brak) w kramiku, w iTunes Store, w oprogramowaniu, w serwisie streamingowym Apple Music. Wszystko jest podporządkowane kwestiom integracji w ekosystemie, formie (nie treści), kolejnym (dla mnie – powiem szczerze – niezbyt zrozumiałym) zmianom interfejsów, sposobów komunikacji oraz prezentacji tego, co Apple oferuje w zakresie muzyki. Muzyka jest tutaj tylko towarem, nie stanowi wartości samej w sobie, ma po prostu dobrze sprzedać to, co dla Apple najistotniejsze z biznesowego punktu widzenia. Nie mam o to pretensji, rozumiem takie postępowanie, natomiast dla mnie osobiście to coś, z czym trudno się identyfikować. Mastered for iTunes wiosny nie czyni, Apple nadal chce sprzedać nam stratne pliki, czasami w cenie zbliżonej do fizycznego nośnika, dodatkowo nie oferując żadnych, dodatkowych (aż się prosi) benefitów. Ktoś, kto ma nieograniczone możliwości, ktoś kto może mieć każdego artystę w katalogu, mógłby… Zamknięcie Connect (usługi, będącej odpowiednikiem muzycznego tweetera, służącej do komunikacji twórców z fanami), brak jakichkolwiek zmian w zakresie oferty jakościowej, brak wprowadzenia nowych, atrakcyjnych form obcowania z muzyką (co można i jak wiele można w tym zakresie zrobić pokazuje Roon), skupienie się na kwestiach dopasowania audio by Apple do zmian w hardware, software i dalej w ekosystemie są mocno symptomatyczne. Dlatego nie dziwi mnie to, że nowe produkty oferują to, co oferują w zakresie „obsługiwania muzyki”.

Popatrzmy zatem: Apple TV czwartej generacji bez cyfrowego wyjścia audio, nowe iPhone pozbawione audio jacka z… (o tym poniżej), nowe AirPodsy będące bezdrutowymi EarPodsami w praktyce, mające de facto być przede wszystkim interfejsem dla Siri, gdzie dźwięk wcale nie jest w centrum uwagi, prawdopodobne usunięcie złącz dedykowanych audio w innych produktach (komputery, tablety, firmowe routery) to wszystko dowodzi, że coś, co „było w sercu” Apple – audio – firmy, która zmieniła całą branżę wraz z iPodem (który to też niebawem straci rację bytu, bo po pierwsze Apple Music, po po drugie kluczowy dla firmy, własny smartwatch i wreszcie po trzecie stała erozja sprzedaży) i iTunes, teraz stanowi niekoniecznie kluczowy, niekoniecznie bardzo istotny element oferty. Być może nowy inteligentny głośnik Apple podobny do amazonowego Echo, czy ostatnio pokazanego produktu Google będzie przypieczętowaniem tego, co napisałem powyżej. Interfejs dla własnych usług, sklepów, integracja z domem, połączenie AI z komendami głosowymi (Siri) plus jakieś dźwięki w tle (tak, o muzyce wspominam właśnie, jako o czymś w tle) to będzie swoiste podsumowanie nowego etapu i zaszeregowanie audio do jednej z licznych, niekoniecznie najistotniejszych funkcji/usług. Głośnik? Ano głośnik, ale nie (przede wszystkim) głośnik audio, a głośnik interfejs właśnie. Nowe Beatsy, już bez kabli, wpisują się w ten trend – w końcu Apple nie wprowadziło i zdaje się nie ma zamiaru wprowadzić lepszego jakościowo brzmienia via Bluetooth, korzystając nadal z kodeka AAC (dodatkowo, przy zachowawczych parametrach transmisji), podczas gdy na rynku mamy nie tylko dużo bardziej zaawansowany aptX, ale (od kilkunastu tygodni) także jego wariant „hi-res” tj. aptX HD. I – żeby nie było wątpliwości – mówimy o softwarze, o kodeku, o czymś co można w każdej chwili (albo nie – jak widać) zaimplementować do swoich produktów (w OS). Wspominałem niedawno o wymuszeniu działania wspomnianego kodeka via BT Explorer  (nadal oferującego stratną jakość, ale nie dość, że parametrami transmisji vide bitrate zbliżonym do bezstratnego transferu, to dodatkowo redukującego piętę achillesową sinozębnego interfejsu tzn. opóźnienia) na macOSie. To jest właśnie to, o czym napisałem przed chwilą. Apple nie jest zainteresowane lepszym jakościowo audio, bo nawet w swoich komputerach nie daje w sposób łatwy zmienić jakości via BT (trzeba do tego dodatkowego narzędzia i trzeba rzecz na sztywno wymusić w systemie), jednocześnie jednoznacznie optując za światem bez kabli. Pozostaje podstawowy profil SBC, który oferuje najgorsze parametry, bardzo poważnie wpływa na to, co dotrze do naszych uszu. Apple świadomie według mnie niczego tu nie zmienia. W iTunes nadal jest AAC (z maksymalnym bitrate na poziomie 256kbps), w komputerach jw. nadal korzystamy z podstawowego trybu transmisji dźwięku, iOSa nie wyposażono w alternatywny kodek, gwarantujący lepszą jakość (no jest AAC, ale to AAC musi wspierać moduł w słuchawkach, głośniku, a często nie wspiera). Więcej… AirPlay nie jest bitperfect (i nie będzie, bo i po co miałby być?), własne produkty nie są i raczej nie będą wychodzić poza ten schemat (MQA? Według mnie bez szans, ALAC w iTunes – po co? Własne bezstratne strumienie… cóż, nie ma o czym mówić), a takie iTunes przekształca się z software katalogującego zbiory z płyt (fizycznego nośnika, gdzie mamy bezstratny zapis) w miejsce integrujące stratne strumienie (Apple Music, iTunes Match), właściwie w obecnej formie to oprogramowanie uniemożliwia budowę swojej (opartej na własnych zbiorach, w tym na zgranych do plików płytach) kolekcji. Ma być to, co oferuje samo Apple. Nawigacja, porządkowanie zbiorów, wyszukiwanie – kiedyś to działało, a dzisiaj… ekhmm.

No dobrze, a teraz konkretnie, bo biadolę, biadolę, a o nowym iPhone miało być i o tym, co nam przynosi usunięcie audio jacka. Po pierwsze dołączone do iPhone akcesoria „do słuchania” są właśnie dla osób, które nie zwracają specjalnie uwagi na aspekt jakościowy. To ma grać, a jak …to już nie robi jakiejś zasadniczej różnicy. Przejściówka ma negatywny wpływ na brzmienie, gdy podepniemy coś lepszego od – umownie – EarPodsów (tych na jacku, a nie dołączonych z Lightningiem na końcu). Cudów nie ma. Elektronika jaką zastosowano w adapterze to nie jest coś, czym można by się – mówiąc delikatnie – chwalić. Do tego dochodzi kwestia wzmocnienia sygnału. Cudów nie ma. Ten element należy traktować awaryjnie, w takim sensie, że jak już jakieś przewodowe słuchawki na jacku będziemy chcieli pożenić z nowym iPhonem to proszę – możemy, ale zaraz przejdzie nam ochota a przyjdzie na wspomniany na naszym profilu, zewnętrzny przetwornik/wzmacniacz. Nie ma też sensu podpinać słuchawek trudniejszych do wysterowania, co – przy oczywistych ograniczeniach wynikających z ograniczeń tego, co montowano wcześniej na płycie głównej smartfona, można było uskuteczniać w przypadku wcześniejszych modeli iPhonów. Podpinałem HiFiMANy, podpinałem Audeze, niemobilne AKG czy Senki i można było z iPhone grać, w przypadku rzeczonej przejściówki nie jest to sensowne rozwiązanie, ten adapter jw. to absolutnie awaryjna opcja i to pod łatwe do wysterowania, mobilne słuchawki.

Ktoś to (adapter) w Niemczech już nawet pomierzył. Buchse = audio jacek. Jak widać, wypada gorzej od dziurki w iPhone 6s / iPadzie Air 2 (tu całość)

To co zrobić bez tego jacka, zapytacie? Apple mówi – czas na Bluetooth, pozbądź się kabli, przecież to wygodne, nowoczesne, świat bez drutów. Tak, zgadza się, to wygodne i oczywiście wielu użytkowników chętnie wybierze ten rodzaj transmisji kompletnie nie zawracając sobie głowy powyższą przejściówką (no może nie do końca, bo jak bateria w słuchawkach padnie, to – właśnie – awaryjnie, pozostanie podpiąć nauszniki do adaptera), bo kabel pójdzie w odstawkę, natomiast w przypadku bezdrutowych IEMów w ogóle tematu (po kablu) nie ma, bo nowe coraz częściej nie będą miały nawet złącza (indukcyjne ładowanie via power bank w etui). Tyle, że musimy w takim scenariuszu pogodzić się z podwójnym kompromisem. Po pierwsze nie będzie bezstratnej transmisji, po drugie nie będzie lepszego jakościowo kodeka – innymi słowy decydujemy się na brzmieniowe kompromisy. O ile będziemy korzystać ze Spotify, Apple Music czy innego, oferującego stratny strumień, serwisu, to taki kompromis de facto nam nie zaszkodzi. Sytuacja zmieni się, gdy zagramy z Tidala (redbook 16/44 bezstratnie, za moment MQA tj. 24/44), z Qobuza (niebawem w Polsce), czy takich (polecam!) rzeczy jak Loop (własna chmura audio bez ograniczeń miejsca z materiałem o dowolnych parametrach jakościowych). Tutaj przyda się coś innego niż wspomniany adapter, niż transfer via BT z iPhone. Przydałby się (bezdrutowo) lepszy kodek, no ale…

Niestety, takie połączenie nie jest możliwe, a szkoda (bo takie daje najlepszą jakość brzmienia, o czym pisałem w recenzji Momentum Wireless)

Nagle okazuje się, że uzyskanie dobrej jakości dźwięku z nowego modelu nie jest wcale taką oczywistą i trywialną sprawą. Nie, nie wystarczy podłączyć tego, co mamy. Co więcej, czasami nie podłączymy (także) tego, co teoretycznie powinno współpracować ze sobą – mam tu na myśli konfigurację słuchawki BT (zdolne do transferu audio via kabel cyfrowy) połączone za pośrednictwem przejściówki camera kit z iPhonem 7. To – niestety – nie zadziała. Wszystkie, dotychczasowe słuchawki bezdrutowe, zdolne do transmisji via USB, ze względu na zasilanie (zbyt duży pobór) nie będą mogły współpracować z urządzeniami na iOSie. Komunikat o błędzie (patrz obrazek) oznacza, że takie połączenie (kablem cyfrowym) owszem będzie możliwe, ale tylko w wypadku nowych produktów wyposażonych w kabel Lightning. W przypadku dołączonych EarPodsów mówimy po prostu o zmianie typu złącza, bo to nadal te same, podstawowe dokanałówki, które dla wielu są wystarczającym wyborem, a dla wymienionych w pierwszym akapicie stanowią zbędny element wyposażenia, co najwyżej – znowu – awaryjną opcję. Mogę tylko wspomnieć o jednej istotnej kwestii. Tu, bardziej, jest co się zepsuć, bo mamy po pierwsze elektronikę odpowiedzialną za konwersję C/A w gniazdku (dokładnie tak, jak w adapterze), po drugie to nie bardzo wytrzymały audio jack (myślę o samej wtyczce), a inny, bardziej podatny na uszkodzenia typ złącza. To jednak aspekt użytkowo-praktyczny, a nie jakościowy – ten drugi, jak napisałem, tutaj nie stanowi, choć warto wspomnieć, że za dźwięk nie odpowiada telefon (będący cyfrowym transportem w tym wypadku), a same IEMy. O tym, czym jest, a czym nie jest to, co Apple wkłada do pudełka, napisałem przy okazji adaptera.

 

I tu, rozpoczyna się (dla fana dobrego jakościowo brzmienia) przygoda z czymś, co nam ten dźwięk w surowej, cyfrowej, zero-jedynkowej formie przekształci w postać analogową, strawną dla wysokiej klasy przetworników wbudowanych w muszle (tudzież, zamontowanych w niewielkich obudowach IEMów – bo z drutem, ale lightningowym, też się już takowe pojawiły na rynku, poza wkładanymi do pudełka z telefonem EarPodsami). No właśnie, poza mobilnymi przetwornikami/ampami, których na rynku sporo, o których nie raz, nie dwa pisaliśmy na łamach, które testowaliśmy, pojawia się zupełnie nowa kategoria: słuchawki z cyfrowym kablem, który to kabel wyposażono w zminiaturyzowaną postać tego, co powyżej – wbudowany w pilota DAC wraz ze wzmacniaczem. Takim produktem, który notabene za moment powinien do nas trafić, są Adeze Sine z przewodem Cipher. To mobilne nauszniki, ale za moment pojawią się do niedawna flagowe LCD-3, przepraszam iLCD-3, wyposażone w takie okablowanie. Kabel ma być zresztą oferowany samopas i o ile będzie dysponował standardowymi typami przyłączeń (a nie unikalnymi dla produktów danego producenta), każdy będzie mógł sobie skonwertować swoje nauszniki do postaci kompatybilnej z nową elektroniką (w tym przypadku Jabłka, ale rzecz dotyczy całej branży vide USB-C i najnowsze smartfony wyposażane wyłącznie w to złącze). Czy tak daleko posunięta miniaturyzacja nie będzie miała negatywnego wpływu na brzmienie? Trzeba będzie to zbadać, w przypadku Oppo HA-2, z którym testowałem nowego iPhone wyraźnie widać, że (co nie jest żadnym odkryciem, bo dotyczy to tego segmentu i stanowi sens egzystencji takich akcesoriów) użycie takiego zewnętrznego DAC/AMPa jest  warunkiem uzyskania dobrego jakościowo brzmienia. Nie ogranicza nas jakaś kosteczka za centa, nie ma żadnych problemów z dostarczeniem odpowiedniej energii dowolnym, w tym także stacjonarnym, słuchawkom. Rzecz jasna w takiej sytuacji mamy optymalny, mobilny system słuchawkowy, bo z zewnętrznym źródłem energii (bateryjny DAC/AMP), z takimi – dodatkowymi – bajerami jak opcja tankowania źródła (iPhone), z wyprowadzeniem dźwięku na duże stereo (przy ewentualnym, jednoczesnym ładowaniu telefonu), podpięciem wspomnianych, stacjonarnych słuchawek tj. dopasowaniem poziomu gain pod konkretny model, wreszcie podbiciem niskich tonów (gdyby komuś przyszła na to ochota). Współpraca w tym wypadku przebiegała bez niespodzianek, od razu Oppo było identyfikowane przez iPhone (tu nie trzeba camera kit, bo DAC jest identyfikowany z pośrednictwem bezpośrednio wpinanego, standardowego kabla Lightning do telefonu). Tak, po podpięciu, zagrało i iPhone przekształcił się w wysokiej jakości źródło dźwięku. Tyle, że aby tak się stało musicie rozważyć zakup jakiegoś DAC/AMPa (może być też taki bez baterii, ale wtedy bezwzględnie trzeba sprawdzić, czy ma certyfikat MFI, czy jest zdolny do pracy podpięty bezpośrednio pod urządzenie na iOSie), względnie nowych nauszników lightningowych, a jeżeli już dobre nauszniki mamy, to jakiegoś (pewnie będzie tego na kopy) cyfrowego kabelka z przetwornikiem wbudowanym w pilota. A to, nie będą grosze, patrząc na ceny tych nowości…

No, teraz to jest dźwięk…

Konsekwencją wyrugowania jacka, oparcia transmisji dźwięku na transferze cyfrowym (przewodowym bądź bezprzewodowym) będzie konieczność zakupu dodatkowych akcesoriów, względnie zakupu nowych słuchawek. To koszty. Zyski? Cóż, potencjalnie może to przynieść poprawę brzmienia (przy czym mówimy raczej o cyfrowym kablu, lub takich urządzeniach jak HA-2) – wyprowadzamy dźwięk z niedoskonałego z definicji źródła jakim jest handheld / komputer, odseparowywujemy konwersję, wzmocnienie sygnału od przeładowanego układami, czujnikami, modułami łączności wnętrza – teraz już – tylko cyfrowego transportu. Oczywistym zyskiem odnośnie spraw użytkowych, związanych z ergonomią, jest pozbycie się coraz częściej kabla, z tym że wiążą się z tym pozbyciem nowe wyzwania i zysk w interesującym nas – jakościowym – zakresie jest …mocno dyskusyjny. Można uzyskać dobre rezultaty, ale wymaga to po pierwsze stabilnej, pewnej transmisji (a w przypadku BT, zresztą także WiFi, bywa z tym bardzo różnie),  po drugie zastosowania technologii podnoszących dopuszczalne parametry jakości transferu sygnału audio (wspomniane aptX, a także coś lepszego od AirPlay’a – są takie rozwiązania: sieci mesh (Sonos), SKAA (AirDAC NuForce), czy Play-Fi (DTS, parametry 24/96 bezstratnie etc.), po trzecie zmian w podejściu oferentów (usługodawcy streamingowi) do kwestii jakości oferowanej u nich muzyki. To także zupełnie nowe możliwości (w zakresie EQ, a także wprowadzenia nowych, zaawansowanych trybów DSP, skuteczniejszych systemów ANC) i tutaj na pewno dokona się niemała rewolucja. W końcu nie bez przyczyny Apple oraz inni producenci wprowadzają w swoich słuchawkach wielofunkcyjne procesory, dodatkowe czujniki, czułe mikrofony. To wszystko ma czemuś bardzo konkretnemu służyć. Czy to coś, to dźwięk (w kontekście jakości)?

A to, moi drodzy, pozostaje otwartą kwestią. Według mnie – niekoniecznie, albo nie przede wszystkim.

 

Nowa specyfikacja audio USB Class 3.0. Audiojack out. Cyfrowej rewolucji C.D…

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
conexant_usb-c_headset_678_678x452

USB Implementers Forum wreszcie opublikowało nową standaryzację. A zatem czas na nowe USB Audio, na nowe USB Class 3.0! To bardzo ważne wydarzenie, aż dziw (bierze), że tradycyjnie praktycznie całkowicie zignorowane przez branżowe periodyki, serwisy. Oczywiście dzisiaj stoimy na progu wyrugowania okablowania i przejścia na transmisję bezprzewodową (co oznacza implementację rozwiązań sieciowych, z magistralą USB nie mających nic wspólnego), jednak czas w jakim pozbędziemy się fizycznego medium (kabla) w transmisji audio jeszcze nie nadszedł i szybko nie nadejdzie, choć w przypadku słuchawek ta tendencja może faktycznie szybko doprowadzić do rozbraty z kablem. Stąd wspomniane wyautowanie audio jacka, które zapisano w dokumentach sankcjonujących nowy standard. Czym jest USB Class 3.0? Jak wiemy, w przypadku obowiązującego obecnie standardu UAC / ADC 2 główną jego zaletą było zniesienie ograniczeń związanych z obsługą dźwięku o wysokich częstotliwościach taktowania zegara (mnożnik dla podstawowych wartości 44.1 / 48 kHz > x2) oraz znaczące zwiększenie przepustowości względem pierwszej klasy, pozwalające w praktyce na granie każdego materiału audio. Ogóle założenia nie wychodziły poza ramy tego, co można uzyskać z wbudowanych w komputery kart dźwiękowych oraz handheldów, bez uwzględniania specyfiki (rozwoju) elektroniki użytkowej jaki dokonał się na przestrzeni ostatniej (plus, minus) dekady. Dlaczego wspominam pierwszego iPhone oraz zaprezentowanego wcześniej iPoda (ktoś tu pewnie migiem skojarzy daty ;-) )? Cóż, to właśnie pojawienie się smartfonów, gwałtowne odejście od fizycznego nośnika, muzyka z pliku i z internetowego strumienia oraz wspomniane przeobrażenia w całej branży audio (komputer wchodzący jako obowiązkowa część składowa do systemu audio w każdym zakresie od budżetowego po high-endowy, zapoczątkowany rozbrat z kablem) wymusiły radykalne przemyślenie czym ma być nowa specyfikacja, jakie rzeczy są kluczowe, na co należy przede wszystkim zwrócić uwagę, skoncentrować wysiłek (przy projektowaniu nowych urządzeń). Do tego muzyka przeniosła się (nieodwracalnie) do Internetu.

Ogólny schemat USB Audio Class 3.0 – nowego standardu PC Audio (przy czym dzisiaj to PC jest w kieszeni najczęściej, a nawet pojawia się na nadgarstku ;-) )

 

Nowych wytycznych dotyczących audio z  - umownie – komputera jest całkiem sporo i wierzcie mi, nie ograniczają się one tylko do eliminacji audio jacka. To oczywiście coś, na co od razu zwrócimy uwagę, studiując dokumentację USB IF. Zamiast audio jacka jest USB-C i to właśnie ten  nowy port ma zastąpić analogowe wyjście audio w telefonach, tabletach, komputerach, jak również w sprzęcie audio (choć tutaj wytyczne mogą być potraktowane jako ogólna wskazówka i raczej wątpliwe, czy ktoś będzie ograniczał funkcjonalność, chyba że dotyczyć to będzie niewielkich urządzeń, pracujących na baterii – przenośnych, takich, które mogą na takiej zmianie coś zyskać). Eliminacja tego elementu nie jest niczym zaskakującym. Rok temu Intel przestawiając swoje założenia dotyczące rozwoju sprzętu IT postawił sprawę jasno – wyeliminujemy tradycyjne interfejsy, zbędne według nas elementy, doprowadzimy do jakże oczekiwanego przez konsumentów UJEDNOLICENIA w kwestii złącz / interfejsów / standardu połączeń. Tworząc USB 3.1 (aka C) twórcy, z Intelem na czele, chcieli przeforsować wizję jednego portu do wszystkiego, uniwersalnego sposobu transmisji dla wszelkich danych, kompatybilnego z wszystkimi (no powiedzmy, choć biorąc pod uwagę uzyskaną zgodność, poza naprawdę archaicznymi rozwiązaniami, nowe USB jest prawdziwie multi, dając możliwość przykładowo wykorzystania złącza jako w ramach Light Peak w najnowszej odsłonie, czytaj Thunderbolta 3.0) co dzisiaj na rynku egzystuje.

Sporo się dzieje, nieprawdaż? No tak, bo my tutaj mamy wyspecjalizowane procesory pod audio, w tej nowej specyfikacji. Standard wyznacza kierunki rozwoju całej branży audio moim skromnym zdaniem. Całej.

 

Skupmy się jednak na muzyce, na tym co ta zmiana wnosi w przypadku branży audio. Rezygnacja z analogowego wyjścia audio to po pierwsze uproszczenie konstrukcji urządzeń (coraz częściej transportów cyfrowych, bez konwersji C/A), eliminacja komponentów odpowiedzialnych za konwersję oraz transmisję sygnału, pewne oszczędności w zakresie zużycia energii oraz pozyskanie większej przestrzeni na dodatkowe sensowy lub/i powiększenie baterii. To przede wszystkim mobilna elektronika, ale zmiany wprowadzane przez UAC 3.0 idą dalej niż tylko wyrugowanie audio jacka. Pozostawiono możliwość transmisji analogowego audio (rezerwacja dwóch pinów w porcie USB-C). Warto podkreślić, że są to zarezerowane, osobne piny, które nie mają wpływu na cyfrową transmisję odbywającą się w kablu i w zamierzeniach to furtka dla tych, którzy chcą w urządzeniu zastosować jakieś dobre jakościowo układy konwersji C/A, względnie dla tych, którzy nie muszą liczyć się z każdym milimetrem, czytaj producentów sprzętu stacjonarnego. To pozostawienie otwartej drogi do transferu danych audio za pośrednictwem kabla USB to próba wprowadzenia nowego, wspólnego standardu okablowania, jednoczesnej rezygnacji z interfejsów o – nazwijmy to – niekomputerowym rodowodzie. Ciekawa sprawa, bo coś czuję, że już zaraz na rynku pojawią się audiofilskie kabelki USB-C i w ogóle branża kablarska z radością pochyli się nad nowymi możliwościami zarobku. Dzisiaj kabel USB w zastosowaniach audio jest tylko jednym z wielu sposobów na transfer i to takim, w którym występuje dodatkowy element tj. DAC. W przypadku nowej specyfikacji przykładowo klasyczne słuchawki, bez żadnej elektroniki zaszytej w muszlach, pilotach etc. będą mogły za pomocą takich kabelków z gniazdkiem USB-C łączyć się ze źródłem (nie transportem). Zachowanie kompatybilności będzie proste, w końcu wiele (większość?) obecnie wprowadzanych na rynek nauszników ma wypinane kable. Trochę inaczej wygląda to w przypadku IEMów, ale tutaj po prostu nastąpi przejście na wtyczkę USB-C, bo dokanałówki to oczywista domena przenośnej elektroniki użytkowej. Niestety, nie będzie mowy o jednolitym rozwiązaniu odnośnie samego gniazda, bo jak wiemy Apple uparło się, że w ich handheldach jest i będzie Lightning, mimo wdrożenia do komputerów (zapewne także nowych linii Maków, które niebawem pojawia się na rynku) standardu USB-C. Podsumowując, nowe USB-C nie wyrzuca definitywnie za burtę analogowego sygnału! Nic bardziej mylnego, bo kompatybilne z UAC / ADC 3.0 urządzenie ma być zdolne do przesyłu sygnału analogowego (choć oczywiście producent może to ograniczyć wedle uznania) za pośrednictwem kabla USB-C.  Natomiast „rozprawia się” z „archaicznym” audio jackiem i – co trudno pominąć – daje zielone światło w pełni cyfrowej transmisji dźwięku z komputerowego transportu, co stanowi jedno z głównych założeń polityki Intela, zachęcającego swoich partnerów do właśnie takiego rozwiązania. Sprzęt komputerowy ma wyprowadzić sygnał audio w domenie cyfrowej, by dalej, w „efektorach” (słuchawki, głośniki oraz przenośne / stacjonarne komponenty systemu audio) dochodziło do konwersji C/A, wzmocnienia sygnału, dodatkowo, wcześniej, ewentualnej obróbki za pośrednictwem DSP. Z powyższych zmian mają pełnymi garściami czerpać nowe kategorie produktów, takie jak: hełmy VR, urządzenia wykorzystujące rzeczywistość rozszerzoną AR, czy elektronika ubieralna…

 

To jedna strona medalu. Druga – nie mniej ważna – to coś, co daje spore pole do popisu producentom, coś co potencjalnie zmienia reguły gry. Tym czymś jest wyszczególniony w specyfikacji MPU (multi-function processing units) – wielozadaniowe procesory (nie bez przyczyny piszę w liczbie mnogiej!), które mają tak naprawdę definiować możliwości nowych „efektorów”, tj. słuchawek cyfrowych (jak to ujmują oficjalne dokumenty USB IF), systemów głośnikowych (czy może systemów strumienowo-nagłaśniajacych, precyzyjniej rzecz ujmując) oraz stacjonarnego sprzętu audio, zgodnego z założeniami nowego standardu. To jest wg. mnie clou, coś co może przekształcić się w główny, rewolucyjny, element nowej specyfikacji, mający wpływ na to w jaki sposób będziemy słuchać muzyki w niedalekiej przyszłości. Oczywiście, nie chodzi tutaj tylko (a może nawet nie przede wszystkim?) o muzykę, a bardziej o adaptatywny, wielofunkcyjny interfejs audio, interfejs zdolny do adaptacji na potrzeby nowych technologii. Sterowanie głosem, cyfrowi asystenci, translacja w czasie rzeczywistym, identyfikacja głosowa, przekształcanie głosu na potrzeby nowych gałęzi usług, elektronicznej rozrywki i wiele innych (już wcale nie takich futurystycznych) funkcjonalności to nowe pole ekspansji branży IT… MPU to taka brama dla zupełnie nowych pomysłów, a dzięki miniaturyzacji i „zaszyciu” w sprzęcie użytkowym audio, otwierająca ogromne rynkowe możliwości. Pozostawiając jednak te, ciekawe, ale dla nas jednak na marginesie, kwestie, to także gotowe pole pod rozbudowane możliwości DSP, korekcji dźwięku w czasie rzeczywistym, adaptacji akustycznej (pomieszczenia – w przypadku głośników, coraz doskonalsze systemy ANC w słuchawkach) oraz – last but not least – jakości dźwięku.

Trzeba uczciwie przyznać – trzymają rękę na pulsie. Nowe produkty Apple odpowiadają dokładnie na specyfikację UAC 3.0. No prawie (zamiast USB-C trzymają się swojego Lightninga)

Takie MPU będą odpowiadać i będą zdolne do natychmiastowej synchronizacji (host – warstwa sprzętowa oraz softwareowa), dzięki czemu nie będziemy niczego konfigurować, sprzęt będzie łączył się całkowicie transparentnie, nie będzie konieczności instalacji sterowników (to wszystko ma się odbywać natychmiast, bez opóźnień, bez koniecznej ingerencji użytkownika), będą przeprowadzać konwersję C/A, przeprowadzać aktywny proces redukcji odgłosów z tła (ANC) przy jak najniższym poziomie opóźnień, eliminować echo (poprawa jakości identyfikacji głosu, patrz wymienione powyżej, nowe zastosowania), stosować w czasie rzeczywistym korekcję EQ, dostosowywać w czasie rzeczywistym pracę mikrofonów, dobierać poziom wzmocnienia (cyfrowe wzmocnienie sygnału, sterowane za pomocą MPU), dobierać parametry pracy w zależności od okoliczności oraz ustawień aplikacji (te audio będą tylko jednymi z wielu, które – kompatybilne z nowym UAC / ADC – przejmą kontrolę nad dźwiękiem). Programowalne w pełni wzmacniacze i przedwzmacniacze to kolejny element zaimplementowany w nowe kości MPU- to coś, co do tej pory, w tradycyjnej formie, występowało w sprzęcie komputerowym, teraz zaś będzie coraz częściej występować w „efektorach”. W przypadku słuchawek, które poza modelami bezprzewodowymi, wolne były od procesorów, oznacza to gigantyczne zmiany w konstrukcji i sposobie działania. Pamiętacie zapowiedź „ucyfrowionych” Audeze LCD, o której pisałem niedawno? iLCD-3… już widzę producentów, na wyścigi wprowadzających nowe („nowe”) produkty, zgodne z nowymi wytycznymi. Akurat w przypadku Amerykanów chodzi o produkt zgodny z nową elektroniką Apple, ale ta choć nie na poziomie złącz, nawiązuje w założeniach do tego co napisałem powyżej. Taka drobna dygresja – nowe AirPodsy, nowe Beatsy to właśnie co do kropki i przecinka realizacja założeń nowego standardu: układ W1, który przejmuje rolę „menagera audio”: konwertuje, steruje, wzmacnia, komunikuje. Tak to właśnie będzie teraz wyglądać!

Mhm, coś już na temat nowych formatów kompresji wiemy z powyższego schematu, niestety dokumentacji opisującej co i jak USB IF na te chwilę nie opublikowało :(

Warto przy okazji zwrócić uwagę na nowe formaty kompresji (USB Audio Type-III oraz Type-IV), przy zachowanej zgodności z ADC 1.0 oraz 2.0 (ważne, bo w przeciwnym razie nowego komputera czy telefonu, zgodnego z UAC 3.0 nie dałoby się podpiąć pod jakiegokolwiek DACa). Niestety na razie USB IF nie opublikował podobnego do tego, podanego w linku powyżej, dokumentu opisującego nowe formaty kompresji. Nie wiemy zatem co nowego kryją w sobie nowe typy kompresji (można założyć, że będą to kodeki stereo, jak i wielokanałowe, stratne jak i bezstratne). Mam nadzieję, że niebawem doczekamy się stosownej dokumentacji i będzie można zobaczyć jak duży progres się tutaj dokonał (poprzednia standaryzacja to 1998 rok!). Jest sporo nowych, skuteczniejszych metod kompresji, gwarantujących zachowanie dobrej jakości dźwięku, przy niewielkim zapotrzebowaniu na pasmo (dobrym przykładem najnowszych opracowań w tym zakresie będzie MQA, ale w praktyce jest całkiem sporo metod doskonalszych od tych z przełomu wieków, które dają dużo lepsze rezultaty). Co nas zatem czeka? Na pewno nowe metody kompresji dokonywanej w czasie rzeczywistym w oparciu o najnowsze kodeki, nowe rozwiązania z zakresu dźwięku przestrzennego. Pozostanie PCM (to pewne). Poza tym możemy liczyć na nowe tryby oszczędzania energii (auto wyłączanie / usypianie, przy czym ma to być realizowane znacznie lepiej niż dotychczas) oraz kompatybilność z BAAD (basic audio device definition) 3.0, co oznacza zarówno profile oszczędzające energię (znak czasów), jak i instrukcje związane z zarządzaniem różnorodnego sprzętu audio (to ważne, bo przecież wszystko ma się dogadywać bez naszego udziału, albo z minimalnym udziałem użytkownika).

Sumując, duże zmiany, największe w historii komputerowego audio. Lepsze parametry transmisji (przepustowość) wraz z niższym poziomem opóźnień (to jedna z cech nowego interfejsu USB 3.1) z możliwością wykorzystania rozwiązań całkowicie pozbawionych jittera (praktycznie zerowe opóźnienia czasowe) w rodzaju Thunderbolta (3.0). Przepustowość rzędu 40 Gbps (8x wyższa od tej, jaką oferuje USB3.0) nie jest w aplikacjach audio aż tak istotna, natomiast założenia samego interfejsu (połączenie point-to-point, brak potencjalnych interferencji jak w przypadku magistrali USB) mogą przynieść wymierne korzyści. Tylko od producentów komputerów będzie zależało, czy wprowadzą nowe rozwiązanie w swoich produktach. Patrząc na nowe ultraboobki (HP, Dell) z gniazdem USB-C widzę, że na szczęście Thunderbolt staje się standardowym elementem wyposażenia. Innymi słowy, nie będzie to coś zarezerwowane dla komputerów z logiem jabłka. W niektórych aplikacjach przyda się 15W jakie będzie w stanie dostarczyć gniazdo – właściwie każdy zewnętrzny interfejs audio wyposażony we wspomniane MPU będzie mógł obyć się bez własnego zasilania. Rzecz jasna niektórzy producenci będą oferować sprzęt audio z własnym zasilaniem (poza tym Thunderbolt nadal pozostanie rozwiązaniem niszowym w stosunku do USB, ale -być może- wreszcie zauważonym przez branżę domowego audio), z sieci czy z akumulatora, szczególnie w zakresie droższych konstrukcji, nikt z tego nie będzie rezygnował, nawet gdyby energetycznie interfejs w transporcie gwarantował możliwość zasilania podpiętego sprzętu. Zgodność z UAC/ADC 3.0 to coś, co w przypadku mobilnego audio oznacza prawdziwą rewolucję. Nie mam co do tego żadnych wątpliwości. Powyżej dokładnie opisałem dlaczego przenośne rozwiązania zgodne z nową specyfikacją całkowicie się zmienią – chodzi nie tylko o zmiany konstrukcyjne, związane z wprowadzeniem wielofunkcyjnych procesorów, ale także zmiany funkcjonalne, rozszerzenie możliwości słuchawek, głośników…

Gdyby tak w każdym nowym laptopie to było… niestety raczej będzie to rozwiązanie zarezerowane dla droższych modeli, ale – wreszcie – jako standardowe wyposażenie, a nie tylko jako ciekawostka

W kontekście stacjonarnego HiFi, opartego na komputerze, streamerze wpływ nowej specyfikacji należy spojrzeć na nowy standard dwojako: w przypadku „klasycznych” systemów może oznaczać wprowadzenie nowego typu złącza, które będzie mogło służyć do transferu danych po konwersji C/A, albo w roli transportu takich, które mają dopiero zostać przekształcone w sygnał analogowy (np. w kolumnach), dodatkowo sygnał zostanie wzmocniony (dominacja klasy D wśród wzmacniaczy wydaje się pewna… patrz zapowiedź nowej linii integr NADa) oraz – nierzadko poddany dodatkowemu działaniu DSP przy rezygnacji z klasycznych filtrów. Dodatkowo wobec implementacji SPDIF można spodziewać się rezygnacji, czy może to właściwsze słowo – ujednolicenia złącz cyfrowych (ale to zapewne pieśń przyszłości). Druga sprawa to nowe metody kompresji… tu trzeba poczekać na oficjalną dokumentację (zapewne pojawią się rozwiązania stosowane obecnie, pytanie jakie konkretnie?). Wreszcie nowy standard oznacza, że muzyka stanie się czymś egzystującym w zupełnie nowych urządzeniach audio – mam tu na myśli podobne do googleowego Home, czy amazonowego Echo, systemy integrujące audio z zaawansowanym interfejsem głosowym oraz elementami AI. To nie przypadek i – choć mówimy w przypadku wspomnianych gigantów IT o czymś, co granie muzyki ma zaimplementowane jako atrakcyjny dodatek, a możliwości brzmieniowe są/będą na poziomie taniego, budżetowego, bezdrutowego głośnika. Właśnie takie rzeczy, w ramach inteligentnego domostwa, będą coraz częściej „atakować” branżę audio. To nie przypadek, że interfejs głosowy, rozpoznawanie mowy, wielofunkcyjne procesory stanowią nieodłączną cześć nowej specyfikacji USB Audio. To nie jest przypadek.

 

Idzie nowe…

 

Transport cyfrowy za grosze lepszy od sprzętu za tysiące? Chromecast pomierzony

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
chromecast-audio

Niczym drzazga w d… Strona pewnego inżyniera, osoby która hobbystycznie mierzy, opisuje, krytykuje to co w audio niby ustalone, to co modne, to co najgłośniejsze, najbardziej nośne i rozreklamowane. Zapewne wielu speców od marketingu, od PR miałoby spory problem, gdyby wnioski jakie pojawiają się na ww. witrynie pojawiły się w „głównym” obiegu. Na szczęście (a nasze nieszczęście?) dla speców to niszowy site, na tyle niszowy że zapewne wielu z Was, drodzy Czytelnicy, nigdy o nim nie słyszało. Ja śledzę publikacje Achimagio’s Musigns od dawna i cóż – wniosek z lektury kolejnych publikacji nie jest dla branży przyjemny… wręcz przeciwnie… jest przytłaczająco miało przyjemny. To, co uważamy za pewne, przestaje takim być, po lekturze i nie chodzi tutaj o ślepą wiarę w pomiary, cyferki, wyrzucenie subiektywnych ocen do kosza. Nie. Chodzi o coś innego – chodzi o poparte doświadczeniem jasne, nie pozostawiające niedomówień, konkluzje. Coś jest, albo czegoś nie ma. W przypadku Achimagio każdy humbug, każda ściema zostaje bezlitośnie obnażona. Po prostu.

To miejsce, które każe nam, poszukiwaczom dobrego jakościowo brzmienia, przemyśleć parę rzeczy na nowo. Cały cykl artykułów o MQA (bardzo krytycznych w wymowie – będzie o tym osobny wpis) pokazuje w czym rzecz – dzisiaj zatraca się w wyścigu o kasę pierwotny sens całej zabawy, a że w przypadku komputerowego audio (cyfrowego zapisu muzyki, opublikowanego w sieci i odtworzonego w warunkach domowych – precyzyjnie rzecz ujmując) można wmówić prawie wszystko… to się w najlepsze wmawia. Nie ma (bo i być nie może) najlepszego, czy jedynego gwarantującego najlepszy efekt sposobu zapisu, rejestracji i nigdy nie będzie. Właściwie każda technika może w rękach dobrego rzemieślnika (mastering – dźwiękowcy) dać dobry, bardzo dobry efekt. Co więcej, w świecie streamingu, grania z pliku kwestia transportu opartego w 100% na sprzęcie komputerowym, bo każdy streamer to komputer, oparty na TYPOWYCH komponentach tj, układy Intela, procesory ARM, chipsety / płyty stosowane powszechnie w IT (choćby nie wiem jak był drogi, audiofilski i prze-zachwycający) jest… najmniejszym problemem, najmniej istotnym problemem w kontekście jakości brzmienia. Jeżeli byłoby inaczej, tzn. to właśnie ten element był krytyczny, to jak wytłumaczyć idealne wyniki pomiarów takiego Chromecasta (Audio) za 35$? Jak uzasadnić, że coś (realizującego dokładnie te same zadanie – przesłanie z źródła cyfrowo zapisanej muzyki i przesłanie tego dalej w domenie cyfrowej do reszty toru) za 3500$ (i więcej) właśnie …robi to lepiej, podczas gdy lepiej tego nie robi, bo NIE MOŻE? Co więcej (i gorzej dla high-endów) ten pizdryk radzi sobie równie dobrze, jako odtwarzacz, przesyłając dźwięk analogowo, już po konwersji w – podkreślam – akcesorium za 35 dolarów. Zresztą popatrzcie sami na ten wpis (pomiary toslinka tutaj) i wyciągnijcie wnioski. Ja korzystam z paru Chromecastów, intensywnie użytkuje i wnioski już wyciągnąłem. To się sprawdza, zwyczajnie, bez żadnego „ale” się sprawdza. Brawo Google.

Zero-jedynkowy świat to dla wielu świat niemal magiczny, trudny do rozeznania, bo (na pierwszy rzut oka) niezwykle skomplikowany, pełen technologicznego żargonu (w wydaniu marketspecjalistów coraz częściej – niestety – bełkotu). I na tym się żeruje, na tym bazuje, wciskając rozwiązania, które nie dają w praktyce żadnego progresu, żadnego magicznego „lepiej niż pierwotnie zarejestrowane”, żadnego tego typu bajerowania (właśnie!) jak to spece z lubością starają się nam wmówić. Patrząc na pomiary, a także własne oraz przedstawione na ww. stronie wnioski, można napisać tak (twarde fakty, pomijam subiektywne – gra bardzo dobrze, bo…)”…

Chromecast Audio:

  • pozwala uzyskać rozdzielczość na poziomie 17.5 bitów (wyjście analogowe, cyfrowo nawet 18.5), co jest wynikiem bardzo dobrym, lepszym od wielu cyfrowych źródeł za ciężkie pieniądze dostępnych na rynku, podobnym do wielu za dziesięciokrotność sumy, którą przyjdzie za niego zapłacić. Innymi słowy jest to transport, który po upgrade software faktycznie obsługuje materiał 24 bitowy (a nie tylko udaje, że to robi!),
  • ma pomijalny jitter (przypominam, mówimy tutaj o streamingu via WiFi), który pojawia się dopiero wtedy, gdy gramy 24 bity (@ SPDIF). W przypadku materiału 16/44 to rozwiązanie jest JITTER FREE, w przypadku 24 bitów pomiary wypadają gorzej, ale jitter i tak nie ma wpływu na degradację dźwięku w słyszalnym przez człowieka zakresie,
  • jest bitperfect* Warto to podkreślić, bo wiele drogich transportów NIE JEST bitperfect (na marginesie, wszystko co gra Wam wspomniane MQA z założenia nie jest bitperfect, bo MQA nie jest bitperfect),
  • dysponuje świetnie zbalansowanymi kanałami (analog) – żadnych odstępstw, żadnego mniej lub bardziej. Idealne 2Vrms!
  • pozwala, biorąc pod uwagę potencjał (35$!), na podpięcie bezpośrednie do reszty toru analogowo, byle nie były to wysoceefektywne słuchawki. Zwyczajnie, podepnijcie to pod swoje stereo,
  • ma wyjście cyfrowe (Toslink), które wypada bardzo dobrze i w testach porównawczych z bardzo dobrym przetwornikiem C/A TEAC UD-501 nie ma różnic w porównaniu z graniem via USB (PC) na wspomnianym DACu (16/44). To o czymś świadczy, nieprawdaż? Jako transport cyfrowy jest dobrze, ale równie dobrze zdać się na wbudowany, jak się okazuje świetny AKM4430, budżetowy, a jak widać doskonale wykonujący swoją robotę,
  • wyposażono w efektywny system buforowania, zapewniający odtwarzanie bez przerw dźwięku nawet przy dość kiepskim sygnale (opisane w artykule Achimagio 40%). Wiele nowoczesnych streamerów ma cholernie duże problemy w nawiązywaniu połączenia (a co tu mówić o bezproblemowym przesyle, graniu bez zakłóceń) i „wymięka” podczas prezentacji w sklepach (duże zakłócenia, liczne urządzenia podpięte na niewielkiej przestrzeni)
  • nie ma problemu z materiałem 24/88, co niestety przytrafia się wielu urządzeniom audio,
  • to najtańsze tego typu rozwiązanie na rynku (tańszego, w zakresie funkcjonalnym, nie ma), które zostało zaprojektowane jak trzeba. Jak widać nie trzeba laboratorium NASA, kosmicznych technologii, rzadkich materiałów z asteroidy, by coś niezwykle taniego wypadało w pomiarach blisko (albo dokładnie) wartości referencyjnych. To jest – jak podkreśla autor bloga – bardzo proste. Jitter, bitperfect, balans, rozdzielczość to konkrety, albo coś potrafi, albo nie potrafi (jest źle zaprojektowane, albo nie do końca dobrze) osiągnąć właściwych wyników. Tylko tyle i aż tyle! Dotyczy to także DACa za 5000$, streamera za 20 000 tysięcy i innych, audiokomputerowych wynalazków,
  • wypada jako źródło równie przekonywająco jak wspomniany TEAC UD-501 (to subiektywny osąd autora pomiarów). Mój? Patrz wyżej (strefy oparte na Chromecast A.)

Cóż mogę dodać? Może to, że oczywiście można inaczej i więcej, bo można chcieć obsługi DSD chociażby (tak, uważam że 1 bitowy materiał ma swoje specjalne cechy, które kojarzą się z graniem z analogowych źródeł, chodzi tu o subiektywny odbiór tak zapisanej muzyki, nie chodzi o żadne oceny lepiej/gorzej), można chcieć integracji z Roonem (niestety na razie nie ma możliwości wykorzystania Chromecasta w tym front-endzie, choć przymiarki trwają i mam nadzieję, że takowa integracja w wersji 1.3 oprogramowania się pojawi), można też mieć ochotę na dużego klamota po prostu, na połączenie wielu funkcjonalności (vide świetny skądinąd ADL Stratos) itd. itp. Nie zmienia to jednak ogólnej wymowy tego, co powyżej… nie ma i nie będzie czegoś takiego, jak Złoty Graal cyfrowego audio (za góry złota rzecz jasna), który pozostawia wszystko inne daleko w tyle. Czegoś takiego w przyrodzie nie ma i nie będzie (bo też jest jasny cel w przypadku transportu cyfrowego – da się to zmierzyć, da się stwierdzić, da się osiągnąć lub nie). Sprzęt za dziesiątki tysięcy złotych może nie spełniać formalnych wymogów, być zwyczajnie źle skonstruowany, mieć braki w obsłudze cyfrowego dźwięku (podstawowe) i choć nie wyklucza to automatycznie dobrego brzmienia, to nie może on brzmieć lepiej od tego, co zaprojektowano… lepiej. Nawet jeżeli to lepiej zaprojektowane kosztuje 35$. Tak podpowiada logika i trudno by było inaczej. Nie można udowadniać czegoś, czego nie ma. Nawet jeżeli dysponuje się najlepszym słuchem we wszechświecie nie można. Nie można, ale często gęsto to się właśnie robi.

Pod rozwagę.

 

PS. Do napisania tego wpisu długo dojrzewałem, musiałem sobie to wszystko poukładać. Poukładałem i cóż, tak to widzę. Wiem, że w ten sposób narażę się złotouchym piewcom czegoś, co wg. nich gra lub nie gra. Mniejsza o twarde realia, prawda? Kiedy to ucho w bezwzględny sposób „mierzy” i „dowodzi”. Dobrym określeniem na te do(wy)wody jest „zdaje się”, najlepszym według mnie, ale to automatycznie wyklucza dalszą dyskusję, bo przecież złotouchy powie „jest” i basta. Muszę szybko uporządkować listę kontaktową, coś czuję ;-)

Testujemy Audioengine D2. Najlepszy wireless DAC na rynku?

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
Nadajnik D2 bliżej

To się dopiero okaże, ale muszę przyznać, że do tej pory najlepsze rozwiązanie tego typu jakie przewinęło się u nas (i zostało) tzn. AirDAC firmy NuForce (z transmisją SKAA) ma poważnego konkurenta. Najistotniejsze w tej całej bezdrutowej zabawie jest wykorzystanie wolnego od zakłóceń, czystego pasma, o co dzisiaj naprawdę trudno… te dziesiątki sieci WiFi, setki podpiętych urządzeń, bliska komunikacja w ramach BT itd. itp. Najlepiej własne rozwiązanie, które pozwala na minimalizację interferencji, odpowiednie parametry pracy, niezakłócony transfer zer i jedynek z nadajnika do odbiornika. Specjaliści z branży, którzy byli pionierami w tej dziedzinie (tak, mam tu na myśli Sonosa) stworzyli swój ekosystem rozwiązań opierający się na wydzielonej sieci z opracowanym przez producenta protokołem transmisji. Dodatkową zaletą jest brak konieczności konfigurowania tego typu rozwiązania – sprzęt od razu się widzi, od razu gotowy jest do przesyłu dźwięku, niczego nie musimy w naszej infrastrukturze sieciowej zmieniać. Po prostu plug & play. Takie okoliczności warunkują niedostatki wsparcia dla formatów hi-res (chodzi też o zapewnienie stabilnego przesyłu, o czym kiedyś pisałem, a przeczytacie o tym więcej we właściwej recenzji), bo wszystko ponad 24/96 wymaga w pewnym, najpopularniejszym systemie komputerowym (nadal bez obsługi audio USB 2.0) instalacji sterowników.

Mamy więc na tapecie tego bezprzewodowego DACa, mamy też możliwość przetestowania całego portfolio produktów Audioengine. Firmę doskonale znają miłośnicy dobrego jakościowo audio z komputera. To pewien wyznacznik jakościowy w zakresie desktopowych zestawów głośnikowych „pod komputer”. Miałem wcześniej styczność z produktami tej firmy i nie dziwię się, że zdobyły taką popularność, szczególnie w Stanach. Innymi słowy do AE powrócimy jeszcze nie raz na łamach, testując kolumienki aktywne tego producenta. To już niebawem. A teraz, powracając do bohatera niniejszego wpisu, parę słów na temat D2. Zasada działania tego bezprzewodowego DACa opiera się na wykorzystaniu własnego protokołu transmisji, własnej podsieci, łączącej punktowo odbiornik z nadajnikiem. Możliwe są konfiguracje z wieloma odbiornikami, nadajnik to skrzynka  z interfejsem USB (kontroler USB to znany doskonale choćby z rDACa i wielu innych przetworników TI 1020B), kość Burr Browna PCM1792 (DAC) zamontowano zaś w odbiorniku. Sygnał >96KHz jest downsamplowany (obsługiwany dźwięk do 24/192KHz). Poza tym mamy także opcję bezprzewodowego przesyłu dźwięku via SPDIF (toslink, na kości Asahi Kasei). Ciekawy, rzadko spotykany patent, pozwalający na podpięcie pod DACa dodatkowego źródła do nadajnika oraz wyjście z odbiornika na zewnętrznego DACa. Innymi słowy dostajemy bezprzewodowy link SPDIF i jakby tego było mało konwerter cyfrowy USB-SPDIF np. z ewentualną możliwością podpięcia pod głównego DACa w salonie. 

Sam nadajnik dysponuje regulacją głośności (co ciekawe, odbywa się niezależnie od przesyłu danych – trzeba to będzie dokładniej obadać), która działa dla analogowych wyjść audio RCA zamontowanych w odbiorniku. Innymi słowy, cytuję: „informacje te są przetwarzane dopiero w analogowej sekcji odbiornika, nie wpływają na cyfrowy strumień audio”. Co to w praktyce oznacza i jak dokładnie to przekłada się na zgodność bitową sprawdzę podczas testów DACa. Z tego co widzę, po wybraniu fixed w Roonie oraz ustawieniu przetwornika jak na prezentowanym poniżej obrazku, mamy na wyjściu (antenie ;-) ) bitperfect. Sprawdziłem także jak to będzie wyglądało w VOX Playerze i tu także DAC może wypuszczać sygnał ustawiony na stałym poziomie głośności. Do odbiornika trzeba podpiąć zasilaczyk, w przypadku nadajnika można podpiąć go bezpośrednio do PC/Mac, zasilając przetwornik z magistrali USB komputera. Nie ma żadnych problemu z działaniem, negatywnego wpływu, gdy skorzystamy z zasilanego USB huba (tak właśnie pracuje D2 z iMakiem, z MacBookiem łączę bezpośrednio). Oczywiście nie ma tutaj mowy o sterownikach, o konfigurowaniu czegokolwiek, może poza wybraniem urządzenia odtwarzającego w panelu audio komputera. Plug & Play. Sumując, mamy transmisję bezstratną, mamy możliwość wysyłania dźwięku o parametrach 24/96.

Muszę na zakończenie tego opisu pochwalić dystrybutora. Mało który tak kompetentnie udziela informacji na temat oferowanego produktu. Często kończy się na tym, że musimy zasięgnąć wiedzy u samego producenta, a bywa że bez własnych poszukiwań niewiele wskóramy. W tym przypadku jest inaczej vide przystępny, a jednocześnie bezbłędny i szczegółowo wyjaśniający opis tytułowego przetwornika na stronie. Możemy między innymi dowiedzieć się, w jaki sposób producent przygotował transmisję – jeden, z jak wspomniałem, kluczowych elementów tego urządzenia: „System bezprzewodowy D2 dzieli pasmo 2405-2477Mhz na 37 kanałów szerokości 2Mhz. System skanuje pasmo i wybiera dwa kanały oddalone od siebie o 36Mhz (szerokość 18 kanałów) i używa ich do przesyłania równolege rozkładają obciążenie po 50%. Wybrane kanały pozostają w użyciu do czasu pogorszenia warunków transmisji i wzrostu wskaźnika błędów ponad okreslony poziom. Zmiana kanałów odbywa się bez przerw w transmisji czy spadku jakości sygnału audio. Przyjete rozwiązania zapewniają pełną ciagłość i integralność dźwięku i dobre współdzielenie pasma radiowego z innymi urządzeniami bezprzewodowymi.

Jasno i na temat. Bardzo ładnie opisano także zawiłości związane z podstawowymi kwestiami dotyczącymi komputerowego audio, wyjaśniając terminologię oraz odpowiadając na najczęściej pojawiające się wątpliwości, pytania. Pozostało wyjaśnienie kwestii regulacji głośności (sprawdzałem na stronie producenta i nie ma tam na ten temat za wiele, @ Computeraudiophile też się mocno głowili jak kto jest z tą regulacją) oraz przetłumaczenie przez dystrybutora wskazówek na wypadek pojawienia się problemów z transmisją, działaniem produktu (bardzo, skądinąd sensownych, za co należą się słowa uznania dla producenta). Zdaje się, że w kraju jeszcze nie pojawiły się recenzje tego DACa, D2 trafia do nas z dużym opóźnieniem (dotyczy to de facto całego portfolio Audioengine). Cóż, lepiej późno niż wcale. Fajnie, że ten producent ma w Polsce przyczółek.

Na zakończenie, nawiązując do bohatera wpisu, mamy pewne doświadczenie odnośnie testów bezprzewodowych przetworników C/A (nie mylmy tego ze streamerami, nawet takimi z wejściem USB pod komputer, bo to dwie zupełnie różne sprawy!). Testowałem @ HDO (i został) wspomniany AirDAC od NuForce (Optoma), był także u nas bezprzewodowy DAC od NADa (bardzo dobry produkt, niestety za krótko by go rzetelnie przetestować), był też AirTry (który niestety totalnie się nie sprawdził), wreszcie na co dzień grają w redakcji (jako pomocnicze źródła) AirPort’y Express, opisywałem też ostatnio Chromecast Audio. Te dwa ostatnie to specyficzne produkty, bardziej stacje bezdrutowe z integracją na poziomie protokołów transmisji, ale też się wg. mnie łapią, bo właśnie mogą zastąpić w systemie komputerowym przetwornik lub być bezprzewodowym interfejsem audio z przesyłem sygnału SPDIF do reszty toru. Świat bez kabli nęci, odseparowanie komputerowego źródła od elementów właściwego toru audio kusi, tak – to ma sens – szczególnie w dobie takich, całościowych rozwiązań softwareowych jak front-end Roon, 1 (ze zdalnym sterowaniem & odpowiednim interfejsem).

 

Poniżej fotogaleria, którą uzupełnię wieczorem / rano o opis…

» Czytaj dalej

Roon na NASach Synology & QNAP! I nie tylko…

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
Roon_NAS-742x190

Nowa aktualizacja i kolejne, bardzo przydatne możliwości. Oprogramowanie w najnowszym wariancie daje możliwość instalacji wersji serwerowej Core na popularnych dyskach sieciowych firm Synology oraz QNAP. Co ciekawe to wspólny projekt developera oraz jednego z użytkowników Roona (Chris Rieke), który wcześniej opracował kod i wykorzystał prywatnie w celu przeniesienia serwerowego software na jeden ze swoich NASów. Piszę o tym nie bez przyczyny – wokół Roona stworzyła się prężnie działająca społeczność użytkowników. Wiemy jakie daje to benefity – wystarczy popatrzeć na coś, co bez społeczności nie przetrwałoby a jest rozbudowywane, rozwijane, żyje własnym życiem …mam tu na myśli LMS (Logitech Media Server). Tutaj jest podobnie, bo ludzie kombinują, podpowiadają, aktywnie biorą udział w szlifowaniu oprogramowania i chwyała im za to. Dla mnie, mającego styczność z branżą programistyczną, jakość oraz częstotliwość udoskonalania Roona robią ogromne wrażenie. To jedyny projekt z tego segmentu (software audio), który ma tak silne, tak dobre wsparcie. Dobrze, dość lukrowania, czas na konkrety, czyli co przynosi nowy soft (tytułowa funkcjonalność to niejedyne zmiany, jest jeszcze coś bardzo istotnego – wspomnę o tym poniżej), zatem czym jest Roon @ NAS.

Przeniesienie Core na dysk sieciowy to oczywiste zalety: 24/7, niskie zużycie energii, ogromne przestrzenie dostępne dla naszych audio kolekcji, zautomatyzowany sposób tworzenia kopii bezpieczeństwa. Minusy? Developer wspomina o dość wysokim koszcie takiego rozwiązania bez optymalizacji pod audio (bo NAS to po prostu PC), gdzie zakłócenia, szum (chłodzenie) to coś, z czym musimy się zwyczajnie pogodzić. Do tego dochodzi wspomniana wysoka cena. Oczywiście można kupić dzisiaj dysk sieciowy za względnie niewielkie pieniądze, ale będzie to rozwiązanie oparte na układach Marvella (ARM) lub co najwyżej Atom (x86 – tu zapłacimy już konkretnie), które nie sprawdzi się w opisywanym scenariuszu tj. przeniesienia serwerowego software Roona na NASa. Wymagania oprogramowania, o czym nie raz wspominałem, są konkretne, duże, tu nie wystarczy byle co (dotyczy to Core, nie Bridge – tu można śmiało zastosować system oparty na wymienionych powyżej układach, dowolny w praktyce), tu trzeba naprawdę wydajnej maszyny. Twórcy software wspominają o 64 bitowym CPU (x86) oraz co najmniej 2GB pamięci. Takie NASy Synology oraz QNAPa to już wydatek ponad 1k za samą skrzynkę, bez dysków. Co więcej, taki NAS, najlepiej jakby był wyposażony w jednostki Core ix. Wtedy mamy pewność, że przeniesienie bibliotek (*względnie może to być tylko samo Core bez kolekcji, dlaczego tak? O tym za chwilę…) na NASa będzie najsensowniejsze, uzyskamy komfort wynikający z wykorzystania szybkiego układu, dodatkowo wspominają o zaaplikowaniu (możliwy obecnie upgrade pamięci) w dysku sieciowym 4GB RAMu. To wszystko konkretnie kosztuje. Developerzy wymieniają przykładowo jako optymalny NAS QNAP TVS-471. To czterokomorowy dysk z Core i oraz 4GB za około 5 tysięcy złotych. Sporo.

Napisałem wcześniej o możliwości przeniesienia samego Core (soft serwerowy wraz z bazą danych), bez bibliotek na NASa. Chodzi tutaj o wykorzystanie (kolejne zalecenie) szybkiej pamięci półprzewodnikowej SSD w roli magazynu dla Core. Twórcy odradzają dyski talerzowe (zazwyczaj stosowane w NASach jako te, które gwarantują duże pojemności przy najniższej cenie za GB), wspominając o konieczności zapewnienia bardzo szybkiego dostępu software (działanie tej wersji oprogramowania to operowanie na dużej liczbie danych, ciągłe, z dużą ilością odwołań, szczególnie gdy mamy do czynienia z rozbudowaną konfiguracją Roona tj. wieloma strefami). Można oczywiście w tym celu zredukować koszty (kupno dysków SSD o pojemności 1TB i więcej to finansowa ekstrawagancja), wykorzystując w roli nośnika jakiś niewielki, tani 60-120GB dysk SSD. To wystarczające rozwiązanie. Można taki dysk podpiąć za pomocą złącza eSATA (jakie często udostępniają producenci NASów w swoich produktach) i już mamy Core na SSD plus biblioteki w skrzynce, względnie można zakupić tańszy dwu albo nawet jednokomorowy dysk (tańszy, nie oznacza tani – patrz wymagania odnośnie CPU i pamięci RAM) i całość rozwiązać w ten właśnie sposób, tzn. zdecydować się na Core na NASie z ewentualnym dodatkiem bibliotek na jakimś podłączonym nośniku.

Sam developer wspomina o niższym koszcie alternatywnych rozwiązań (dzisiaj dyski wieloterabajtowe są tanie), gdzie kolekcje muzyczne można spokojnie ulokować na zewnętrznym nośniku o bardzo dużej pojemności. Nie tracimy nic z wydajności, bo to co jest wrażliwe, co wymaga mocy tj. Core z bazą danych lokujemy na najszybszym systemie PC – czy to będzie (jw) NAS, czy jakiś komputer PC (w tym celu warto – wierzcie mi – zastosować desktopa, najlepiej szybkiego all-in-one) to nie jest już takie istotne, choć oczywiście zbudowany od podstaw system (jak opisany DX2), pozwalający na egzystowanie pod jednym dachem Core i Bridge jest ideałem (ale jakże kosztownym ideałem). Tak czy inaczej można, dzięki nowym możliwościom Roona, pokusić się o instalację na NASie – myślę, że kwestią nieodległej przyszłości jest pojawienie się produktów z szybkimi układami CPU w przystępniejszej niż obecnie cenie. Jak wspomniałem, nie trzeba decydować się na wielokomorowe (co znacznie podnosi koszt) rozwiązanie. Nie ma takiej potrzeby, bo możemy kolekcję trzymać na talerzowych, tanich jak barszcz, nośnikach i podpinać je do naszego Core wedle uznania. W przypadku instalacji Core na PC polecam system all-in-one nie bez przyczyny… zazwyczaj mamy idealne wyważenie takich cech jak cicha praca, oszczędność energii (niektóre z komponentów z laptopowym rodowodem), duża wydajność (CPU desktopowe o najwyższej wydajności), podatność na upgrade (zależy od modelu, ale z pamięcią RAM nie powinno być z zasady problemu) oraz sporo większa niż w komputerach mobilnych liczba interfejsów we/wy. Core wraz z Bridge (czytaj pełna wersja Roona zawierająca zarówno serwer z bazą danych jak i odtwarzacz) na takim systemie komputerowym świetnie się sprawdza. Taki PC ma zazwyczaj szybkie Core ix, ma co najmniej 8 albo i więcej GB pamięci (co w laptopach nie jest wcale takie oczywiste i tanie), dysponuje także dyskiem półprzewodnikowym (tutaj obecnie to także standardowe wyposażenie laptopów). Możemy zatem podpiąć interfejsy audio do takiego komputera i mieć wszystko zintegrowane. Czy wyjdzie taniej niż NAS? Niekoniecznie, ale będzie to rozwiązanie alternatywne dla kogoś, kto chce mieć jednocześnie całego Roona pracującego w jednym miejscu. W redakcji pracuje w tej roli rozbudowany iMac (spokojnie może być to PC, zapłacimy mniej, z tym że polecałbym Linuksa nie Windowsa – wtedy można pokusić się o równoczesną instalację dwóch modułów oprogramowania Core i Bridge z przeniesieniem sterowania na jakiś dotykowy ekran handhelda) i sprawdza się to bardzo dobrze. Warto przy okazji wspomnieć, że Roon faktycznie wymaga szybkiego systemu, widać to po wykorzystaniu redakcyjnego komputera – tutaj kluczowymi sprawami są CPU (szybki, czterordzeniowy układ), dużo RAMu (4GB w praktyce wykluczają maszynę pracującą pod kontrolą MS Windows) oraz SSD. 

Napisałem wcześniej, że nowy soft to nie tylko NASy. Właśnie – nie tylko i dla wielu (co ja piszę wielu, dla każdego!) to wcale nie najistotniejsza innowacja. Twórcy przebudowali biblioteki. Całkowicie. Chodziło tutaj o to, by nowy sposób tworzenia bazy danych Roona uczynić efektywniejszym, szybszym, by całość działała lepiej niż dotychczas. I wicie co? Pełen sukces – to działa znakomicie, niebywale szybko (wcześniej duża kolekcja wymagała nieco czasu by się zaktualizować po uruchomieniu software), właściwie można powiedzieć, że natychmiastowo. To przyspieszenie szybkości wczytywania i aktualizowania bazy danych robi naprawdę wielkie wrażenie. Brawo! Sam proces przebiega zazwyczaj bezboleśnie, jednak twórcy radzą dokonać wcześniej archiwizacji dotychczasowych bibliotek (cały proces opisano tutaj). Wprowadzono także całe mnóstwo usprawnień w interfejsie, na pierwszy rzut oka niewidocznych, a bardzo przydatnych (szybszy dostęp, czy dodatkowe możliwości szybkiego dotarcia do funkcji odtwarzania z każdego możliwego poziomu oprogramowania – bardzo przydatne!). Pojawiło się też kilka nowych, wspieranych urządzeń audio ze wsparciem (możliwością wykorzystania w roli end-pointu) tj.:

  • Bryston BDP-2
  • Bryston BDP-1
  • PS Audio DirectStream
  • PS Audio DirectStream Jr
  • PS Audio PerfectWave
  • Auralic VEGA

Dodajmy do tego szlifierkę (swoją drogą liczba błędów jest z aktualizacji na aktualizację mniejsza, co przy rozbudowywaniu funkcjonalności oraz przebudowie oprogramowania jest sporym osiągnięciem) i mamy Roona, który właściwie nie wymaga już jakiś fundamentalnych zmian. Teraz można to oprogramowanie popularyzować i to się dynamicznie dzieje, o czym wspominają twórcy (link do Software Release Notes). Coraz więcej producentów sprzętu audio widzi potencjał tego oprogramowania, widzi że to gotowe, całościowe rozwiązanie dla kogoś, kto chce grać z plików. Jedyne takie na rynku. Nie dziwi zatem (co było bardzo widoczne na ostatnim HE w Monachium) praktycznie co miesięczna dawka informacji o nowych produktach z supportem, o zainteresowaniu branży tym rozwiązaniem. Dla mnie to oczywisty składnik, kluczowy składnik systemu audio. Nie wyobrażam sobie mojego systemu bez Roona, bo to on integruje wszystko, oferuje najwięcej (porównując do alternatyw) oraz porządkuje moje źródła muzyki. Nie ma tutaj żadnych ograniczeń odnośnie formatów, rodzaju odtwarzanej muzyki, a łatwość obsługi, stabilność tego software jest czynnikiem decydującym o wyborze i cóż… jak wspomniałem we wcześniejszych wpisach – wprowadzicie abonament miesięczny, a gwarantuję że setki tysięcy melomanów zerojedynkowych rzucą się na ten kawałek kodu i będą wniebowzięci. 

Na zakończenie chciałem podzielić się takim o to marzeniem, czy jak kto woli chciejstwem (odnośnie integracji Roona w najbardziej bezkompromisowej formie). Połączenie tego co zaprezentowało Sonore (MicroRendu) z możliwościami jakie daje Light Peak (patrz test interfejsu audio Zoom TAC-2 z Elgato thunderbolt dock station) oraz umieszczeniem na niewielkim, wbudowanym SSD Core z bazą danych. Wszystko to w zminiaturyzowanej formie, działające 24/7 z Core i3 (wystarczy, względnie Core M opartym na najnowszych rdzeniach Intela) na pokładzie. Myślę, że rzecz całkowicie w zasięgu dzisiejszych możliwości w zakresie konstrukcji systemów komputerowych. Taki Roon system. Sam Thunderbolt to nie tylko ogromne korzyści wynikające z zalet tego interfejsu (patrz wyżej link do recenzji TAC-2), ale – co nie mniej istotne – możliwość integracji wielu urządzeń w ramach takiego hipotetycznego rozwiązania. Mamy coś, co łańcuchowo można łączyć przy wykorzystaniu najszybszego, nie podatnego na żadne zakłócenia, interferencje, medium tj. połączenie światłowodowe. Takie stacje, jak opisana Elgato, produkty OWC, Belkina i paru innych producentów mogą „z półki” zapewnić rozbudowę takiego systemu w oparciu o wymienione huby. Obecnie (i to się raczej nie zmieni) komputerowe audio to USB audio – jak widać, nie będzie w takim przypadku najmniejszego problemu z podpięciem posiadanych interfejsów audio do takiego, thunderboltowego Core. Redakcyjny iMac realizuje taką koncepcję, ale tylko do pewnego stopnia, bo mówimy o zwyczajnym komputerze, w żaden konkretny sposób nie zoptymalizowanym pod kątem audio, do tego kosztownym. Ma swoje niezaprzeczalne zalety w tej aplikacji (OSX, wydajność, rozbudowane możliwości uniwersalnej maszyny), ale to jednak nie do końca to. Dodatkowo taki, chciany, komputer będzie – co oczywiste – dużo tańszy od dowolnego (może poza Mac Mini) komputera z jabłuszkiem na obudowie. Tak to widzę. Thunderbolt, SSD, a jako medium łączące z siecią – jak w przypadku Sonore – LAN (żadne tam WiFi!). Core plus Bridge pod jednym dachem z tabletem / smartfonem w roli sterownika. Taki pojedynczy komputerek, albo takie dwa (i więcej) komputerki (z rozdzieleniem funkcji serwerowych od odtwarzania muzyki) to było by definitywnie TO. Na Linuksie rzecz jasna. Według mnie niczego lepszego w tej dziedzinie nie dałoby się wymyślić. Oczywiście rynek nie zna czegoś takiego, jak „nic lepiej”, widzę zatem pole do popisu dla producentów takiego PC oraz (a może nawet przede wszystkim) stacji – hubów (a to zasilanie koszerne, a to jakieś zoptymalizowanie konstrukcji takiego huba pod kątem audio… wysokiej klasy DAC? Specjalny, wydzielony / dedykowany bezprzewodowy link do urządzeń audio korzystających z bezdrutowego przesyłu danych?), jakiś kabelków thunderbolt od audio kablarzy ;-) itd itp. Wiadomo, tak to się kręci. To, co byłoby „wsadem”, tzn. software, już jest. Zwie się Roon i w takim ideale komputerowego audio stanowiłoby nasze…

…dla całego systemu PC Audio. Ostatecznie zamykając temat. Ostatecznie? ;-)