Właśnie otrzymałem informację od twórców kontrolera ruchu o przesunięciu wysyłki urządzenia o dwa miesiące. Niestety zamiast 22 maja zamawiający otrzymają sprzęt dopiero 22 lipca (czy raczej wtedy zaczną być realizowane zamówienia). Szkoda. W liście mowa jest konieczności dopracowania kontrolera, o wysyłce tysięcy egzemplarzy do developerów, którzy przesłali twórcom listę koniecznych poprawek. Widać, że postanowiono nie ryzykować, jak to miało miejsce w przypadku androidowej konsoli Ouya, która została wysłana do pierwszych zamawiających i spotkała się – delikatnie rzecz ujmując – ze sporą krytyką, czego dowodem niezbyt pochlebne recenzje w Internecie. Cóż, trzeba będzie uzbroić się w cierpliwość i poczekać na urządzenie . Miejmy nadzieję, że po jego otrzymaniu nie tylko otrzymamy dopracowany produkt, ale te parę miesięcy pozwoli developerom na zaprezentowanie wartościowego oprogramowania, pozwalającego na wykorzystanie możliwości kontrolera w środowisku Windows/MacOS X.
Niedawno pisaliśmy o tym ciekawym urządzeniu, wspominając że trafi ono do redakcji i będziemy mogli przekonać się na własnej skórze o zaletach interfejsu opartego na gestach (kontroler ruchu) w przypadku sterowania komputerem. Widać, że sprzęt jest na tyle obiecujący, że firma HP – gigant z branży PC – postanowiła zainwestować w pomysł, zapowiadając wprowadzenie Leap Motion do swoich najnowszych, wybranych modeli laptopów oraz komputerów all-in-one. Co ciekawe, będzie to pełna integracja – tzn. kontroler będzie wbudowany w laptopa, będzie rzecz jasna korzystał z zamontowanych w nim kamer (pytanie czy będzie to jedna kamerka – wydaje się, że może być ich więcej – zasięg urządzenia, jego precyzja będzie uzależniona od liczby kamerek współpracujących z LM). To bardzo poważne wsparcie dla pomysłodawców, daje nadzieję nie tylko na szybką popularyzację, ale przede wszystkim na zwiększenie zainteresowania sensorem developerów tworzących oprogramowanie. Mam nadzieję, że nie będziemy musieli długo czekać na nasz egzemplarz. Rzecz jasna samo urządzenie jest niewiele warte bez odpowiedniego software. Po deklaracji HP można być chyba optymistą w tym zakresie – na pewno pojawią się nowi chętni do pracy nad oprogramowaniem dla LM.
O komputerach u nas głównie w kontekście PC Audio, ale… czasami coś na ten temat napiszemy, szczególnie gdy koresponduje z tematyką handheldów. O nich piszemy dość często. Tym razem wiadomość dotyczy Dell-a, jednego z największych producentów sprzętu komputerowego na świecie. Od paru miesięcy cała branża narzeka na spadające słupki sprzedaży. Generalnie źle się dzieje, komputerów sprzedaje się coraz mniej, zyski maleją – kryzys. Amerykanie mają jednak pewien pomysł jak obniżyć koszty, jednocześnie wprowadzając na dotychczas zarezerwowany głównie dla Intela, AMD oraz PowerPC (stworzonych przez koncern IBM) rynek (superkomputery) technologię rodem z handheldów. Dell wierzy, że uda się stworzyć klastry obliczeniowe wykorzystujące architekturę ARM.
Zalety? Skalowalność oraz energooszczędność takich maszyn. Już trwają przymiarki do budowy takich urządzeń. Powstaje m.in. prototyp oparty na procesorach Samsung Exynos 5, tych samych które znajdziemy w najnowszych smartfonach czy tabletach. Wydaje się jednak, że do superkomputerów trafią inne rozwiązania wykorzystujące tech. ARM – mam tu na myśli jednostki 32 oraz 40 bitowe. Dodatkowo pojawiły się już pierwsze próbki procesorów 64 bitowych układy ARMv8 / Cortex-A57 oraz Cortex-A53. Nie wspomniałem o najważniejszej z zalet – te procesory są bardzo tanie, bez porównania tańsze od tych, które produkują Intel, AMD czy Oracle (Sparc). Można zatem liczyć na dużo niższą cenę sprzętu, co z pewnością spotka się z dużym zainteresowaniem przemysłu oraz instytucji korzystających z dużych mocy obliczeniowych (być może takie zastosowania idealnie zasymilują się z wirtualnymi centrami przetwarzania danych, z przetwarzaniem w chmurze).
Tak wynika z raportu opracowanego przez Gartnera. Możemy w nim przeczytać, że już w 2016 roku średnia cena tego typu urządzenia spadnie do poziomu kosztu zakupu dobrze wyposażonego PC. Innymi słowy za trzy lata kupimy takie urządzenie za mniej niż 2 tysiące dolarów. Oznacza to dwie rzeczy. Po pierwsze drukarki 3D trafią pod strzechy – a to wróży stworzenie gigantycznego rynku, który dzisiaj trudno sobie nawet wyobrazić, gigantycznego rynku firm sprzedających gotowe projekty do wydruku 3D wielu przedmiotów codziennego użytku. Po drugie każda firma będzie mogła nabyć wiele tego typu urządzeń, co zwiastuje duże zmiany w takich dziedzinach jak logistyka, profil oraz ciągi produkcji, projektowanie …właściwie trudno dzisiaj precyzyjnie powiedzieć jak będzie wyglądała gospodarka po wprowadzeniu innowacji jakie niesie ze sobą druk 3D. Przyglądając się obecnym projektom, urządzeniom śmiem twierdzić, że będą to często zmiany rewolucyjne.
Technologia trójwymiarowego wydruku będzie idealnym uzupełnieniem i rozszerzeniem dotychczasowych technologii w takich branżach jak: architektura, przemysł (wytwarzanie wszelkiego rodzaju dóbr) oraz medycyna. Przykładem zmian wynikających z zastosowania druku 3D jest m.in. możliwość „drukowania” fizycznych prototypów różnego rodzaju produktów jeszcze przed uruchomieniem produkcji masowej. Daje to nowe, rewolucyjne możliwości w dziedzinie projektowania. Powiem szczerze: nie mogę się już doczekać masowego wprowadzenia drukarek 3D. Mam parę pomysłów na biznes i taki sprzęt będzie idealnym rozwiązaniem, umożliwiającym szybką realizację zamierzeń. Mogę sobie wyobrazić jak bardzo takie urządzenie sprawdzi się w pracy mojej małżonki – projektowanie użytkowe i artystyczne zmieni się nie do poznania, albo inaczej będzie można zrobić rzeczy, których do tej pory nie dało się (prosto, albo w ogóle) zrobić.
Takie wnioski płyną z analizy tego co mówią niektóre firmy z branży telekomunikacyjnej. Co prawda, głównie krytyka LTE płynie od tych, którzy nie dostali częstotliwości (a więc chodzi tutaj o biznes, interesy), ale niestety w tym punktowaniu jest sporo prawdy. Technologia jest kosztowna we wdrożeniu, wymaga bardzo dużych nakładów inwestycyjnych – po pierwsze gigantyczne kwoty trzeba zapłacić za zwycięstwo w przetargach na częstotliwości, po drugie zbudować całkiem nową infrastrukturę, opartą na nowym sprzęcie, nowych rozwiązaniach a to wszystko razem generuje olbrzymie koszty. Co więcej, na horyzoncie jest już kolejne LTE Advance, nowy wariant, ulepszony, poprawiony… kto za to wszystko zapłaci? Oczywiście tym kimś będziemy my – klienci.
Obecnie koszt 1GB (transferu) w LTE wynosi 5-10 €. To bardzo dużo, wszyscy operatorzy subsydiują łącza, pytanie jak długo będą to robić? Patrząc na kiepską kondycję branży (duże straty telekomów, gwałtowne pogorszenie finansów, spadki na giełdach) raczej niedługo. Problem w tym, że wcale nie jest przesądzone że ludzie będą przesyłać via LTE gigabajty danych. Innymi słowy nie jest pewne że będą za to płacić. Niektórzy mówili o LTE jako o alternatywie dla stacjonarnego Internetu. Z pewnością w jakiś specyficznych warunkach takie rozwiązanie można w ten sposób potraktować, ale generalnie nie jest to żaden zamiennik dla szerokopasmowych, światłowodowych łącz… ani nie ma takich możliwości, ani – co najważniejsze – nie jest tak tani jak infrastruktura oparta o połączenia przewodowe. Mimo wszystko dla LTE nie ma alternatywy, w przypadku mobilnego Internetu to właściwie jedyna dojrzała technologia, wdrażana obecnie powszechnie na świecie.
Technologia 3G nie ma szans podołać rosnącej liczbie handheldów, użytkowników łączących się z siecią za pośrednictwem mobilnej elektroniki. Do tego stoimy w przededniu ogromnych wyzwań związanych z wprowadzeniem „osieciowania” w motoryzacji, w wielu produktach codziennego użytku (Internet rzeczy). Pytanie brzmi: jak na tym (operatorzy) zarobić? Zdaniem wielu obserwatorów subsydiowane ceny, ich niski poziom jest nie do utrzymania. Trudno jednak wyobrazić sobie sytuację, gdy nagle użytkownicy będą musieli zapłacić dużo więcej za… to samo. No może nie do końca – pewnie poprawi się zasięg, stabilność, ale dla konsumentów nie będą to zapewne zmiany usprawiedliwiające rosnące ceny za GB.
Bardzo ciekawy, wart przeczytania, artykuł pojawił się na portalu The Verge. Generalnie jest to miejsce raczej mocno „jabłkolubne”, co nie oznacza że redaktorzy są ślepi i głusi na to, co ewidentnie Apple… partoli. Tak było z mapami (choć delikatnie), z krytyką obecnej linii kierownictwa (także delikatną), tak jest z chmurową usługą, która wg. najnowszych doniesień jest obecnie najpopularniejszą publiczną chmurą z jakiej korzystają konsumenci na świecie. iCloud miało być spoiwem, czymś co połączy wszystkie urządzenia, wszystkie gadżety Apple w jeden organizm, stworzy jeden ekosystem.
Co się okazało po paru latach? Ano, patrząc przez pryzmat developerów (nie użytkowników, którzy generalnie są zadowoleni, choć nie do końca zdają sobie sprawę, że w wielu przypadkach wcale nie korzystają z iCloud, tylko z innych mechanizmów synchronizujących dane w iOS/firmowych aplikacjach), iCloud to koszmar. To produkt totalnie niedorobiony, z wieloma błędami, dodatkowo z nieistniejącym wsparciem. Szokująca jest, zawarta w artykule, informacja o tym, że w Apple kwestią rozwoju, supportem iCloud zajmują się… 4 osoby (!). Firma praktycznie nie odpowiada na prośby oraz pytania twórców oprogramowania. Zastosowanie jabłkowej chmury w oprogramowaniu firm trzecich jest w praktyce pozbawione sensu. Zdaniem developerów po prostu iCloud zintegrowany z ich aplikacjami po prostu nie działa. Co gorsza niektórych problemów nie da się w prosty sposób obejść, są też takie które z góry skazują dev. na porażkę i zdaniem największych speców od programowania w iOSie (ludzi, którzy zjedli zęby na pisaniu software w ramach Cocoa) są to rzeczy nie do naprawienia. Dziennikarze wskazują na fakt niedotrzymania przez Apple własnych obietnic. Miało być inaczej, twórcy oprogramowania mieli bezproblemowo wdrożyć iCloud do swoich produktów – tak się jednak nie stało (i raczej nie stanie) Więcej na ten temat przeczytacie pod tym adresem:
http://www.theverge.com/2013/3/26/4148628/why-doesnt-icloud-just-work
Jutro (18 marca) nowe SDK pozwalające na detekcję ruchu pod Windowsem oraz modelowanie 3D trafi do wszystkich chętnych. Kinect ma niewątpliwie ogromny potencjał, aż dziwne że Microsoftowi idzie tak opornie (długo) wprowadzanie nowych narzędzi dla twórców aplikacji (dla PC). Potencjał to za mało, aby kontroler ruchu był użyteczną alternatywą dla myszki i klawiatury. Najnowszy wariant (1.7) to bardzo istotne rozszerzenie, zawierające m.in.: możliwość interakcji z kontrolerem w ramach nowego zestawu funkcji (wirtualne przyciski, przeciąganie, interakcja dwóch użytkowników, wsparcie dla wielu użytkowników) oraz – po raz pierwszy - dostępne za darmo próbki kodu z mechanizmami interfejsu, które będzie można zastosować we własnych aplikacjach. To jedna z kluczowych aktualizacji SDK, pozwalająca wprowadzić do oprogramowania podstawowe funkcjonalności oferowane przez interfejs oparty na gestach. Czekamy na konkretne rozwiązania, software wykorzystujący Kinect w roli alternatywnego interfejsu w PC.
Tym razem chodzi o popularny Netflix, który ma zamiar wprowadzić do oferty filmy w rozdzielczości 4K już za dwa lata. To kolejna zapowiedź, po obietnicach Sony (start własnego serwisu VOD) oraz pracach podejmowanych przez Discovery Channel, mających na celu zbudowanie dużej biblioteki nagrań w rozdz. >1080p. Wygląda na to, że 4K przyjmie się szybciej niż się nam wszystkim do tej pory wydawało. Cieszy zapowiedź wprowadzenia materiałów, bo to właśnie brak treści jest największym hamulcowym odnośnie popularyzacji nowego standardu wizyjnego. Warto zauważyć, że obecnie mówi się o super wysokiej rozdz. w kontekście streamingu. To właśnie taki sposób dystrybucji ma być głównym sposobem dostarczania tego typu materiałów do konsumenta. Mimo prac nad nową specyfikacją fizycznego nośnika (Blu-ray), wiele wskazuje na to, że faktycznie mamy do czynienia z powolnym odchodzeniem branży od tradycyjnych form dystrybucji na rzecz internetowej sprzedaży treści (ciekawe czy przyjmie się jako standardowy model abonamentowy, popularny w przypadku muzyki). Nam pozostaje tylko czekać na premierę serwisu w Polsce.
Obie firmy od jakiegoś czasu blisko współpracują odnośnie technologii wyświetlaczy ciekłokrystalicznych. Generalnie Samsung ma kapitał do zainwestowania, a Sharp swoje, unikalne rozwiązania (takie jak, będące jednym z elementów współpracy, ekrany EGZO). Koreańczycy zdecydowali się zainwestować kolejne pieniądze, całkiem spore pieniądze. Sharp otrzyma 112 milionów dolarów. Samsung w ten sposób otrzyma ponad 3% udział (z prawem głosu) w japońskiej spółce, dodatkowo zapewni sobie bezproblemowe dostawy wyświetlaczy do produkowanych przez siebie handheldów, notebooków oraz telewizorów o bardzo dużej przekątnej ekranu. Wspomniane wyświetlacze EGZO mają się znaleźć w małych oraz średnich panelach LCD (zapewne chodzi tutaj głównie o monitory).