LogowanieZarejestruj się
News

Co nowego u Apple?

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
apple-ipad-event-october-2013

Nowego? Ok, firma przyzwyczaiła nas do… braku zaskakujących informacji. No chyba, że za takową uznamy darmową aktualizację MacOSa ;-) Apple pokazało nowe komputery – generalnie odświeżyło linie swoich laptopów, istotne że przy okazji obniżyło ich ceny. Muszę przyznać, ze to dość zaskakująca informacja w świetle dotychczasowej praktyki… jest o 200$ taniej, i taki 13″ PRO z Retiną będzie kosztował 1299$. Przyzwoita cena jak za bardzo szybki, wydajny, mobilny komputer z wysokorozdzielczym ekranem. Poza tym pokazano w końcu finalną wersję oczekiwanego Maca PRO. To – żeby była jasność – nie żadna stacja robocza, tylko „desktop PRO”, cokolwiek miałoby to w praktyce oznaczać. Sprzęt niestey będzie bardzo drogi – 3000 dolarów za …no właśnie desktopa, to jednak przesada. Szczególnie, że Apple zdaje się dostrzega tendencję do poważnego obniżania cen sprzętu komputerowego – kryzys branży dotknął także firmę z Cupertino (niższa sprzedaż makówek od mniej więcej dwóch kwartałów). Tim Cook obiecywał Maka Pro na jesieni, będzie dostępny dopiero w grudniu. Podana powyżej cena dotyczy najtańszego modelu. To będzie wg. mnie komputer dla entuzjastów (czy też jak kto woli fanatyków) marki. Bardzo wysoka cena z jednej i system, który staje się coraz bardziej lustrzanym odbiciem mobilnego iOSa. Mało który profesjonalista będzie sobie zawracał głowę takim produktem, szczególnie że ma wybór, szeroki wybór wśród …taniejących stacji roboczych, lepiej wyposażonych, z oprogramowaniem które nie zaczyna przypominać aplikacji mobilnych (Final Cut „PRO”).

Nowy software to opisany powyżej wyraźnie inspirowany iOSem (7) trend upodabniania oprogramowania dla makówek z handheldowym softwarem. Widać to wyraźnie na przykładzie sztandarowych pakietów iLife oraz iWork. Wszystko wygląda czy jest dopasowane pod stylistykę nowego iOSa 7. Integruje się z urządzeniami mobilnymi, jest bardzo proste w obsłudze (ale też nie dysponuje wieloma zaawansowanymi funkcjami - tutaj progresu nie ma) i obecnie coraz mocniej integruje się z chmurą. Właściwie każdy składnik pakietu do edycji multimediów oraz biurowego korzysta obecnie z iCloud, wersji przeglądarkowej, edycji w sieci. To także poniekąd wymusiło zmiany w dystrybucji – od teraz każda z aplikacji firmowych (tych podstawowych) dostępna jest za darm0. To dobra wiadomość dla osób, które do tej pory nie kupiły iMove, Pages, czy Keynote… te i inne aplikacje będzie można pobrać bez opłat, będą stanowiły wartość dodaną do każdego urządzenia z logiem jabłka na obudowie. Pamiętajmy jednakowoż, że część z tych programów ma podobne możliwości co darmowe odpowiedniki dostępne w sieci (niestety dotyczy to praktycznie całego pakietu biurowego, szczególnie zaś edytora tekstów oraz arkusza kalkulacyjnego). Za darmo ww. sofware będzie dostępny dla klientów, którzy nabyli dowolne urządzenie z MacOSem/iOSem licząc od dnia 1 października.

Nowe iPady to w kolejności iPad Air – nowa wersja podstawowego (o ile tak można napisać) modelu o przekątnej 9,7″. Sprzęt jest cieńszy (o 20% od iPad 4 gen.), lżejszy (waży zaledwie 0,45 kg) i oczywiście szybszy od poprzednika. Mamy więc chip A7 znany z iPhone 5S, co ciekawe jest także koprocesor M7 (to dziwne, bo nowy iPad nie ma przykładowo TouchID). Jest nowe WiFi z technologią MIMO, LTE, 5MP kamera iSight oraz fullHD (front) w standardzie. Poza tym 10 godzin pracy na baterii, sprzęt będzie dostępny od 1 listopada także w Polsce. Ceny bez zmian. Co ciekawe Apple nadal będzie sprzedawało iPada 2. Jak widać, ten staruszek nadal jest na tyle nowoczesny i szybki, że może być z powodzeniem wspierany od strony softwareowej. Daje to nadzieję na (jeszcze) długą, rynkową egzystencję tego produktu na rynku. Trochę źle mogą się natomiast poczuć użytkownicy pierwszego modelu z Retiną - iPada 3 generacji, który wyraźnie niedomaga wydajnościowo i raczej nie załapie się na kolejne upgrade software. Cena dwójki bez zmian – 399$. Według mnie nieprzyzwoicie drogo – sprzęt sprzed trzech lat powinien być znacznie tańszy… nie powinien kosztować więcej niż 300$. Cóż.

…oraz iPad Mini z ekranem Retina (7.9″ o rozdz. 2048×1536). W końcu Apple wprowadziło ten, nie oszukujmy się, konieczny element do swojego małego tabletu. Obecnie konkurencja sprzedaje 7-9″ tablety z ekranami o wysokiej, czy bardzo wysokiej rozdzielczości i brak takiego wyświetlacza w iPadzie Mini byłby poważną wpadką. Na szczęście nowy Mini dysponuje tym samym (rozdzielczość) wyświetlaczem co wspomniany powyżej Air. Poza Retiną, konfiguracja podobna do tej w większym modelu. Jest więc procesor A7, 10 godzin działania na baterii oraz 5MP kamera i MIMO. Cena? 399$ Podobnie jak większy iPad, także mniejszy będzie dostępny w czterech wersjach kolorystycznych: czarnej, białej, srebrnej oraz szarej. W sprzedaży od pierwszego listopada. W sprzedaży pozostanie pierwszy model 7″ iPada w cenie 299$. Widać, że Apple zdecydowało się na taką, a nie inną politykę dystrybucji – najnowsze modele z Retiną (z wycofaniem poprzednika wyposażonego w taki displej) oraz utrzymywanie (ciekawe jak długo) iPadów z ekranami 720p.

I to by było na tyle…

 

» Czytaj dalej

Nokia pokazała… nowe Lumie 1520 &1320 oraz 2520, nowy software…

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
lumia2520_1

Sporo tego. W Abu Zabi właśnie odbywa się zapowiadana wcześniej konferencja Nokia Word. Finowie pokazali kilka nowych urządzeń, w tym jedno o którym nie było wcześniej żadnych przecieków, ponadto zaprezentowano wiele nowości z zakresu oprogramowania. To właśnie software był według mnie najmocniejszą stroną prezentacji (nie umniejszając nic Lumiom – Nokia konsekwentnie rozwija tę linię produktową, odnosząc niemałe sukcesy na rynku). Nowe programy to m.in. połączona, usprawniona i – miałem okazję się o tym przekonać osobiście, testując ostatnie modele Finów - znakomita aplikacja do obsługi kamery w telefonie. Cóż, trudno się dziwić, że to właśnie ten software (Nokia Camera) jest w centrum uwagi – w końcu właśnie w tym Nokia się od dawna specjalizuje, jej PureView, świetna optyka, wiele osiągnięć z zakresu stabilizacji oraz działania mikroskopijnych układów optycznych montowanych w handheldach wyznaczają dzisiaj trendy, stanowią punkt odniesienia. W końcu nowe oprogramowanie jest nie tylko spójne (a nie – jak to miało miejsce do tej pory – obsługa telefonu dostępna w paru osobnych programach), ale dodatkowo w pełni zintegrowane z systemem operacyjnym. W sumie to naturalne, bo konferencja unaoczniła że Nokia i Microsoft to obecnie już niemal 100% symbioza… w przyszłym roku dojdzie do zapowiadanego przejęcia Lumii przez giganta z Redmond. Co oczywiste MS ze wszystkich sił stara się wspierać Finów, czego dowodem całe zatrzęsienie popularnych aplikacji, których do tej pory brakowało na Windowsa Phone, a które już, albo niebawem pojawią się w mobilnym systemie Microsoftu. Chodzi tutaj m.in. o Facebooka (już jest), Flipboard, Instagramie oraz twitterowym serwisie streamingowym wideo Vine. Wygląda na to, że najbliższe miesiące zaowocują niemalże całkowitym uzupełnieniem katalogu oprogramowania na Windows Phone o najpopularniejsze aplikacje, których do tej pory brakowało na platformie mobilnej MS. Wszystkie nowości jakie zobaczyliśmy w software Nokii (także zmodyfikowane aplikacje, takie jak Nokia Here etc.) będą dostępne dla użytkowników starszych Lumii w ramach upgrade oprogramowania (kodowa nazwa aktualizacji – Black). Na pewno pełną aktualizację otrzymają właściciele Nokii 9xx oraz 1020.

Bardzo ciekawym pomysłem jest nowy Storyteller – aplikacja integrująca nasze zdjęcia oraz filmy w rodzaj opowieści z lokalizacją na mapie, tworząca interaktywną foto-wideo relację z naszego życia. To może być strzał w 10-kę, ludzie uwielbiają tego typu narzędzia, a patrząc na sposób działania oraz możliwości software widzę, że jest to bardzo prosta w obsłudze, w dużej mierze zautomatyzowana aplikacja, która jest w stanie w bardzo efektowny sposób zaprezentować gotową opowieść z naszych np. wakacji, spotkania ze znajomymi w formie nawiązującej stylem do sposobu prezentowania informacji przez agregatory treści. Widzę tu spójne, przemyślane działania Nokii oraz Microsoftu, próbujących razem stworzyć wspólną, spójną, atrakcyjną formę prezentowania treści w ramach swojego ekosystemu. Wygląda to bardzo ładnie, nowocześnie i – powiem szczerze – dużo lepiej, ciekawiej niż u konkurencji. Inną, bardzo ciekawą aplikacją jest Nokia Beamer – można w prosty sposób współdzielić ekran, a wraz z nim wszelkie informacje, dane z innymi użytkownikami… będzie można przesłać za pośrednictwem tego software także obraz z wbudowanej w urządzenie kamery. Poza tym właściciele Lumii (raczej od numeracji 9xx w górę, choć nie jest to potwierdzone) skorzystają z nowego software Nokia Refocus Lens (patrz demo). To w skrócie inteligentne algorytmy, które nie tylko pozwolą na poprawę kolorystyki, ale także wyostrzenie zdjęcia z wybraniem konkretnego elementu (ów), z zapisem tak zmodyfikowanego zdjęcia w 5MP (z możliwością publikacji  w fb rzecz jasna). Ma to być bardzo zaawansowana modyfikacja, korzystająca z technologii Scalado (podobna do Lytro) umożliwiającej uzyskanie zdumiewających efektów podczas edycji fotografii. Co ważne, w modelach 1020 oraz 1520 Nokia wprowadziła obsługę RAW!

Ok, a gdzie zapowiadane nowości z zakresu hardware? Nokia zaskoczyła wszystkich aż dwoma smartfonami z gigantycznymi ekranami o przekątnej 6″.

» Czytaj dalej

Windows 8.1 na tablecie – nasza opinia na temat najnowszej odsłony okienek

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
Windows-8_1_3

Dostępną od wczoraj aktualizację zainstalowałem na naszym redakcyjnym wintablecie. VivoTab Smart 400 nie jest najnowszym modelem, ale radzi sobie w roli źródła PC Audio bez zastrzeżeń, dodatkowo czasami zastępuje w podróży większego laptopa. Sprzęt wyposażony w klawiaturkę BT z gładzikiem pozwala na całkiem sensowną pracę – jest wg. mnie dużo przydatniejszym urządzeniem niż wczorajsze netbooki, które w roli komputera do pracy wypadały przeciętnie / kiepsko. Przyzwyczaiłem się do interfejsu kafelkowego, choć zazwyczaj i tak korzystałem z trybu desktopowego. Z niecierpliwością czekałem na aktualizację, mając nadzieję że to co najbardziej uwierało mnie w przypadku najnowszych okienek zostanie naprawione, naprostowane przez firmę z Redmond. Windows 8.1 to – mogę z całym przekonaniem to napisać, testując wcześniej wersję Preview – pierwszy, tabletowo-desktopowy system hybrydowy, pierwszy udany, pierwszy użyteczny i funkcjonalny OS sprawdzający się zarówno w przypadku tradycyjnej pracy na komputerze wyposażonym w klasyczną mysz oraz klawiaturę, jak i na handheldzie z dotykowym ekranem. Co prawda najlepsze wg. mnie wrażenia, pełne możliwości, wymagają sprzętu będącego jw. połączeniem PC z tabletem – czytaj hybrydowy system najlepiej skojarzyć z hybrydowym urządzeniem, ale także na zwykłym desktopie, albo wintablecie pozbawionym klawiatury najnowsza wersja ósemki w końcu udowadnia, że to przemyślany produkt, przemyślany i w końcu dopracowany.

 

» Czytaj dalej

Linn Exact – krótka droga materiału cyfrowego ze studia do domowego systemu audio

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
klimax-system

Wiadomo, że nawet najlepsze komponenty audio na nic się zdadzą, gdy to co stanowi kluczowy, najważniejszy element układanki – materiał źródłowy – jest miernej jakości. A często jest, bo podlega wielokrotnej konwersji, przepuszczane jest przez sprzęt o kiepskich parametrach, ulega nieodwracalnemu procesowi pogorszenia jakości. I tak to właśnie w tej całej zabawie z audio jest – shit in… shit out. Na nic się zdadzą automagiczne poprawiacze, „próby” odzyskania informacji z poddanych przekształceniom plików (i nie chodzi tutaj tylko o stratną kompresję!), na nic audiofilskie parametry, super przetworniki, krótka droga sygnału, znakomite komponenty… na nic. Niestety tylko nieliczni producenci audio widzą całą sprawę całościowo, to znaczy tak jak powinno się ją widzieć, bo przecież chodzi w tym wszystkim o efekt końcowy, a nie liczne kompromisy, które prowadzą w konsekwencji do znaczącego pogorszenia jakości dźwięku.

Szkocki Linn zdaje sobie z tego sprawę. Dlatego ma własny label, własną wytwórnię i od momentu przejścia na cyfrę (to właśnie m.in. tej firmie zawdzięczamy popularyzację grania z pliku… przed laty podjęto bardzo wtedy odważną decyzję o porzuceniu formatu CDA na rzecz komputerowych plików) konsekwentnie rozwija swój ekosystem. Właśnie – ekosystem – jest tu słowem kluczowym. Drugim słowem wartym zapamiętania jest Exact. To nazwa ekosystemu Linn’a, który w skrócie opiera się na prostej idei: jak najkrótszej drogi jaką ma przebyć materiał audio, ze studia do domowego systemu audio (za każdy element tego systemu odpowiada jedna firma). Mamy więc studio mastera, hi-res, brak kompresji, doskonałe warunki nagraniowe, techników dźwięku którzy dbają o jak najlepszy efekt oraz – po stronie klienta – sieciowe odtwarzacze (to cyfrowe systemy audio all-in-one… Linn był tu prekursorem), które pobierają dane z firmowych serwerów, materiał można powiedzieć, trafia wprost ze studia do naszego domu. Tym właśnie jest Exact. Nic nie jest tu poddane przypadkowi – za wszytko odpowiada producent, wytwórnia muzyczna, pomysłodawca w „jednej osobie”. Jedna firma. Na końcu jest, na co słusznie zwraca w swoich materiałach Linn, drugi kluczowy element toru… firmowe głośniki dopasowane brzmieniowo do każdego z oferowanych przez Linn’a systemów. Całość tworzy synergię, a ta jak wiemy w świecie audio ma fundamentalne znacznie dla uzyskanego efektu – jej brak, albo jakiekolwiek kompromisy w dziedzinie dopasowania poszczególnych elementów zawsze mają negatywny skutek dla osiągniętej jakości dźwięku. „The source is in the speaker”. Nic dodać, nic ująć… Poniżej krótkie wideoprezentacje Szkotów. Oczywiście postaramy się zdobyć któryś z zestawów do testu na łamach HDO…

» Czytaj dalej

Nokia z nowymi urządzeniami – phablet oraz tablet to nie jedyne nowości Finów

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
Nokia logo

O pozostałych czterech na razie nic nie wiadomo. Do niedawna mówiło się jedynie o dwóch urządzeniach – Lumii 1520, pierwszym phablecie z Windowsem Phone, wyposażonym w 6″ ekran oraz Snapdragona 800. Wiadomo także, że na rynek trafi pierwszy model tabletu z Windowsem RT – model Lumia 2520. Ciekawe co jeszcze, poza wspomnianą dwójką, zaprezentują Finowie? W sumie zaprezentowanych będzie sześć nowych produktów. Konferencja rozpocznie się 22 października. Czy będzie to jakiś rewolucyjny projekt, coś co będzie stanowiło nowe otwarcie po spodziewanym przejęciu mobilnego działu Nokii przez Microsoft? A może firma pokaże coś na… alternatywnym systemie (czytaj Androidzie, względnie rozwijanym wcześniej MeeGo?) Po utracie praw do Lumii, Finowie będą mieli pełną swobodę w tworzeniu nowych urządzeń. Nie jest zatem wykluczone, że pokażą coś zaskakującego. Warto pamiętać, że na przejęcie dużej części Nokii przez MS zgodę musi wydać Komisja Europejska. Nie jest wcale przesądzone jaka decyzja zapadnie. Tak czy inaczej, za niecały miesiąc być może będziemy świadkami pokazania przez Nokię nowej strategii, zupełnie nowych produktów, niekoniecznie związanych z segmentem handheldów.

Ciekawe spojrzenie na nowego iOS-a. Siódemka to coś więcej niż gradienty i pastelowe kolorki?

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
apple-ios-7

Mnie ten artykuł otworzył oczy na parę rzeczy. Nadal uważam, że iOS7 ma parę bardzo kontrowersyjnych, niekoniecznie udanych rzeczy, jednak wymowa tekstu opublikowanego na the verge do mnie przemawia – fakt – to nie tylko zerwanie z seumorfizmem, to coś znacznie bardziej fundamentalnego. Tyle, że wg. mnie Apple słusznie decydując się na poważne zmiany w swoim mobilnym systemie, podjęło kilka niezbyt trafionych decyzji. Ten system jest pełen niedociągnięć i sprzeczności, jest niedopracowany. Apple pozwoliło sobie po raz kolejny wypuścić coś (pierwsze były mapy), co nie jest tym czym powinien być produkt firmy, która przykładała wielkie znacznie do szczegółów, do tego by wszystko było „zapięte na ostatni guzik”. Pomijając względy estetyczne, nowy interfejs wprowadza nowy sposób komunikacji między nami a aplikacją. Warstwy, proste komunikaty, symbole zastępują to co wcześniej przypominało przedmioty otaczające użytkownika, jego biurko, stanowisko pracy. To znacząca zmiana, całkowicie zmieniająca sposób interakcji z systemem, oprogramowaniem. Oczywiście można poprzestać na grafice, na dostosowaniu wyglądu, ale w sumie – na dłuższą metę – nie ma to sensu. Zmiany wprowadzono po to, by zerwać ze starym iOS i to zerwać definitywnie. Ten kto tego nie zrozumie, nie pojmie „polegnie” na próbach zastosowania gradientów, niekoniecznie czytelnych symboli oraz trudnej do implementacji kolorystyki, trudnej bo stonowanej, pastelowej, mocno nijakiej, utrudniającej komunikację z użytkownikiem na tym poziomie.

I choć w artykule generalnie czuć (no ale trudno się dziwić, patrząc na miejsce publikacji) dużą dawkę optymizmu oraz ciepłych uczuć pod adresem firmy z Cupertino, to jednak wymowa tekstu jest wg. mnie jak najbardziej sensowna, trafna… iOS7 to radykalny krok, który wymaga od developerów ogromu pracy. Pytanie ilu z nich zechce zrozumieć intencje Apple, ilu z nich nie tyle dostosuje, co napisze na nowo swój software? Coś czuje, że stosunkowo niewielu. To duże koszty, to konieczność de facto całkowitej przebudowy aplikacji. Brak spójności (bardziej niż prawdopodobny) w ramach całego ekosystemu z logo jabłka będzie sporym problemem. Dodatkowo wielu może sobie zwyczajnie nie poradzić ze znacznie trudniejszą do opanowania sztuką dostosowania interfejsu software do nowego systemu operacyjnego. To wymaga czegoś więcej niż tylko paru godzin pracy grafika. To wymaga sztabu ludzi, często nowego pomysłu. Rzecz jasna działa to także w drugą stronę – to znaczy nowi developerzy oraz ci najbardziej uzdolnieni, będą mogli stworzyć nowe aplikacje, korzystające z nowych (niemałych) możliwości iOS-a. Warto przeczytać…

Microsoft integruje Kinect z Windows – nie ma mowy o Minority Report

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
kinect-windows-8

Kinect nie ma zastąpić myszy oraz klawiatury, nie ma być alternatywą dla klasycznego interfejsu, a nawet nie będzie czymś, co zastąpi ekran dotykowy. Ma być obok, ma być uzupełnieniem, ma stanowić dodatkowy sposób interakcji. Dodatkowy sposób w przypadku prostych czynności, podstawowych, jak powiedział jeden z pracowników MS, Abigail Sellen, gesty są dobre w „very casual, expressive things”. To w czym nie są dobre, to rzeczy wymagające precyzji. Stąd decyzja, by nie tworzyć czegoś, co się po prostu nie sprawdzi, a wpleść sterowanie gestami w dostępne dla komputera interfejsy, wpleść w inteligentny sposób. Podoba mi się takie podejście do tematu, doświadczenia z użytkowania Leap Motion pozwalają na wysunięcie podobnych wniosków. Można przewijać strony, ekrany, wykonywać proste czynności niewymagające… precyzji właśnie. Nawet odpowiednio dokładna kalibracja nie pozwala na rezygnację z myszki oraz klawiatury, choć są zastosowania w których gesty pokazują swój potencjał (o tym, co można dzisiaj zrobić w ramach interfejsu opartego na gestykulacji, przeczytacie w przygotowywanym tekście o Leap Motion).

W przypadku software Microsoftu, można swobodnie poruszać się po kafelkowym interfejsie, modyfikować go, dowolnie kształtować, sterować przeglądaniem stron internetowych w przeglądarce oraz wyszukiwać informacje w najnowszej odsłonie okienek (8.1). Chodzi o to, aby użytkownik wykorzystywał gesty w naturalny sposób, uzupełniający inne, efektywniejsze metody obsługi sprzętu (nie ma więc mowy o sterowaniu kursorem czy wprowadzaniu tekstu za pomocą sterowanej gestami klawiatury). Inżynierowie zatrudnieni przy projekcie implementacji Kinecta w oprogramowaniu Windows wyselekcjonowali kilka przydatnych gestów, takich jak szczypnięcie, czy zbliżanie / oddalanie. „To ma być niewymuszone, naturalne, niewymagające opanowania, nauki”. Szukamy tego, co ludzie uznają za przydatne, za użyteczne – tak to właśnie wygląda. Na razie są to poszukiwania, typowa robota R&D, jednak cel jest jasny, sprecyzowany – zminiaturyzowana wersja Kinecta zintegrowana z PC/Windows. Minority Report? Nie, to bez sensu, niepraktyczne, nienaturalne, męczące – nikt nie będzie ciągle machał rękami przed ekranem. Microsoft zdaje sobie z tego sprawę.

Aero2 z ograniczeniami? Zbyt intensywne korzystanie z darmowej usługi przyczyną problemów…

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
aero2

Aero2 – darmowy dostęp do Internetu za pośrednictwem sieci telekomunikacyjnych (częstotliwość 900 MHz oraz 2570-2620 MHz) zdobył sporą popularność w Polsce. Wiele osób w ten właśnie sposób łączy się z siecią. Niestety udostępnione łącza są obecnie tak zapchane, że czasami połączenie z usługą staje się niemożliwe. To spory problem dla operatora, który ma świadczyć darmowy dostęp do Internetu do grudnia 2016 roku. Wiele osób traktuje Aero2 jako substytut stałego łącza, co przyczynia się do takiej, jak wyżej opisana, sytuacji. Usługa miała zapewnić Internet w słabiej rozwiniętych (infrastrukturalnie) regionach Polski. Chodziło tutaj o możliwość przeglądania stron, obsługi poczty, komunikacji (tekstowej, względnie głosowej) oraz wymiany niewielkich porcji danych. Z czasem okazało się, że Aero2 służy do streamingu oraz masowego pobierania plików …usług w znaczący sposób obciążających dostępne łącza.

Stąd zmiany jakie zapowiedział operator świadczący usługę. Od przyszłego roku po rozłączeniu użytkownik, który będzie chciał skorzystać dostępu, będzie musiał wprowadzić dwuwyrazowy kod wyświetlony na stronie podczas logowania. Dzięki temu więcej osób zaloguje się do usługi, jednocześnie spadnie intensywny ruch generowany przez tych, którzy najbardziej obciążali łącza. Do tej pory wystarczyło ponowne logowanie (po godzinie użytkownik jest rozłączany), co okazało się niewystarczającym zabezpieczeniem na wypadek dużego obciążenia generowanego przez pojedynczego użytkownika. Automatyzacja procesu logowania (sofwareowa bądź sprzętowa) pozwalała jw. przekształcić Aero2 w quasi stałe łącze sieciowe. Od stycznia 2014 roku stanie się to niemożliwe . Konieczność wpisywania hasła w przypadku typowego korzystania z usługi (www, poczta etc.) nie powinna wpłynąć na komfort użytkowania – wręcz przeciwnie – mniejszy ruch pozwoli na bezproblemowe logowanie oraz szybkie działanie połączenia z Internetem.

Ratunek dla Windowsa RT? Wspólne aplikacje z Windows Phone

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
WP&RT

Przyszłość Windowsa RT zdaje się być niezagrożona, mimo fatalnych wyników sprzedaży tabletów z tym systemem. Nowe modele z 8″ ekranami, tablet Nokii oraz zapowiedzi samego Microsoftu dotyczące rozwoju platformy sugerują, że czeka nas nowe otwarcie. I faktycznie przejęcie przez firmę z Redmond mobilnego działu Nokii ma między innymi doprowadzić do ścisłej integracji wszystkich (a więc także desktopowej wersji) systemów Windows. Cel jest jasno wyznaczony – użytkownik ma w przyszłości uruchamiać dowolne oprogramowanie, na dowolnej platformie mobilnej Microsoftu. Czy będzie to hybrydowy PC, smartfon czy tablet, bez różnicy – każdy będzie mógł korzystać z software działającego na sprzęcie wyposażonym w system operacyjny MS. Co ciekawe, firma wyraźnie wskazuje, że to właśnie sprzęt oparty na ARM ma stanowić przyszłość, na tym będzie skoncentrowany cały wysiłek. Nie jest jasne kiedy oraz w jaki sposób dokona się synergia obu środowisk (Windowsa RT oraz Windowsa Phone), ale wg. przedstawiciela MS ma to nastąpić bardzo szybko. Firma nie przejmuje się odpływem producentów od swojego tabletowego OS. Samsung – jak pamiętamy – odpuścił sobie RT, podobnie NVIDIA nie jest specjalnie zachwycona poczynaniami Microsoftu. Wygląda na to, że MS specjalnie się tym nie przejmuje. Ostatecznym celem jest spójny ekosystem, obejmujący przyszłościowe PC (ciekawe czy nadal wyposażone tradycyjnie w chipy x86?), smartfony, tablety oraz konsolę Xbox One z Kinectem. Oprogramowanie ma zapewnić nie tylko pełną współpracę wymienionych urządzeń, nie tylko pełen dostęp do danych z każdego sprzętu z Windows na pokładzie, ale także jw. możliwość uruchamiania, korzystania z aplikacji, wspólnych aplikacji. Zapowiedź nowego tabletofona Nokii, wyposażonego w 6″ ekran (1520) wpisuje się poniekąd w wyżej opisaną strategię. Ciekawe, czy firmie uda się to, co do tej pory nie udało się nikomu (choć zarówno Google, jak i Apple dążą do tego samego, w ramach swoich platform)? Wg. mnie Microsoft jest (o dziwo, biorąc pod uwagę wcześniejsze doświadczenia, działania giganta) najbliżej osiągnięcia celu. To może być prawdziwy przełom w historii twórcy Windows, coś, co zapewni mu mocną pozycję na rynku. Kto może czuć się zagrożony? Na pewno Intel, do pewnego stopnia wszyscy dotychczasowi partnerzy MS (producenci OEM, wielcy producenci sprzętu PC) oraz firmy programistyczne bazujące na starym modelu dystrybucji / tworzenia oprogramowania (na potrzeby desktopowego Windowsa). Z drugiej strony to ogromna szansa dla programistów nie bojących się wyzwań, tworzenia software na rzecz całego, bardzo rozbudowanego ekosystemu – to potencjalnie gigantyczny rynek. Zobaczymy co z tego wyniknie. MS musi się spieszyć (raz, że trzeba gonić, dwa – nie da się ciągle być na minusie, dokładać do interesu).

» Czytaj dalej

IFA 2013 – nasza opinia na temat tego, co zaprezentowano w Berlinie

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
LG OLED

Tegoroczna edycja największych targów elektroniki konsumenckiej utwierdziła mnie w przekonaniu, że w dziedzinie wizji, obrazu stoimy u progu kolejnej rewolucji. Fotorealistyczny obraz, brak widocznej struktury obrazu, nowe technologie zastosowane w wyświetlaczach oraz nowe formaty to (niezbyt odległa) przyszłość, coś co można porównać z wprowadzeniem wysokiej rozdzielczości, przejściem z obrazu SD na HD. To ogromny skok jakościowy, poza tym to coś co będzie miało ogromny wpływ na rozwój całego segmentu AV (bo nie tylko chodzi tutaj o obraz, ale także o dźwięk, o czym przeczytacie poniżej). Wprowadzenie specyfikacji HDMI 2.0 oraz liczne premiery telewizorów o rozdzielczości > fullHD zwiastują nadejście nowej ery. Oczywiście pewnym problemem jest szczupłość źródeł, ale tutaj możemy spodziewać się szybkiego postępu z chwilą wprowadzenia na rynek konsoli PlayStation 4 (serwis streamingowy Sony, ponownie Japończycy będą głównym animatorem zmian, podobnie jak to miało miejsce, gdy wprowadzano na rynek wysoką rozdzielczość obrazu). A to tylko jeden z zapowiadanych dostarczycieli materiałów ultrawysokiej rozdzielczości (wielkie wytwórnie mówią o szybkim wprowadzeniu odpowiednio przygotowanych filmowych szlagierów do swoich katalogów, poza Sony także LG chce pomóc w szybkiej popularyzacji materiałów UHD). Rzecz jasna upłynie nieco czasu (wg. mnie maksymalnie dwa lata) do momentu popularyzacji sprzętu oraz źródeł, dodatkowo dość szybko erozji ulegną ceny kompatybilnych urządzeń. Obecnie są one dość wysokie, choć już teraz widać ruch w dół, mimo że mówimy o de facto pierwszej generacji sprzętu. Wprowadzenie HDMI 2.0 pozwoli na szybkie dostosowanie sprzętu do nowych wymagań.

Zapewne nie minie rok kiedy w niemal każdym telewizorze, odtwarzaczu znajdziemy takie złącze. Przez pewien czas królować będzie skalowanie rozdzielczości (analogicznie jak miało to miejsce w momencie wprowadzenia pierwszych urządzeń HD na rynek), ale docelowo to natywny materiał stanie się standardem. Do tego będą musieli dostosować się producenci konsol, komputerów… handheldy już dzisiaj pozwalają cieszyć się obrazem pozbawionym (widocznych) pikseli. W przypadku monitorów, komputerów widać wyraźnie (także przyglądając się urządzeniom debiutującym w Berlinie), że kolejne generacje otrzymają ekrany >1080p. Nowe konsole będą mogły wyświetlać taki obraz, choć z ograniczeniami możliwościami (specyfikacja HDMI v1.4 to wsparcie dla UHDTV przy 24/30 fps… na pewno nie będą to gry, tutaj brakowałoby mocy, a filmy – powtórzy się historia z PS3/Xbox360 i fullHD). O HDMI 2.0 przeczytacie osobny artykuł, gdzie postaram się przedstawić nie tylko założenia nowej specyfikacji, ale także co to dla nas – użytkowników – oznacza. I nie będę koncentrował się jedynie na wizji… w dziedzinie audio czeka nas także niemała rewolucja (kto wie, czy HDMI jednak nie stanie się w pełni uniwersalnym złączem, służącym do przesyłu wideo oraz audio, mającym zastosowanie także w systemach audio…). Czytaj dalej w rozwinięciu…

» Czytaj dalej