Zgodnie z zapowiedzią, uzupełniłem artykuł o wpadce Apple z mapami o twarde dowody prosto z Polski. Wybrane przykłady w jednoznaczny sposób pokazują jak wiele pracy ma przed sobą firma z Cupertino. Niektórzy uważają, że firmie nigdy nie uda się doprowadzić do szczęśliwego finału prac nad własną geolokacją/mapami, nie zapominajmy jednak że Apple ma ponad 100 miliardów dolarów w gotówce – to wystarczający kapitał by stworzyć coś z niczego. Widać pierwsze efekty prac, najbardziej rażące błędy, niedoróbki zostały usunięte, poprawione. Jednakże chodzi tu głównie o Stany Zjednoczone, gdzie indziej, mapy nadal wyglądają bardzo słabo. Zaskakujące jest to, jak niewiele jest w bazie Apple punktów POI, w wielu lokalizacjach właściwie w ogóle ich nie ma (albo są takie, które dawno się zdezaktualizowały). Co prawda z ostatnio przeprowadzonych badań wynika, że aż 75% użytkowników iOS6 nie dostrzega wad nowych map, są im albo obojętne, albo wręcz nowy produkt chwalą… warto jednak poczekać miesiąc, dwa z ostatecznymi wnioskami. Dłuższe użytkowanie, wyjazdy, jakieś dłuższe wakacje mogą szybko zmienić obraz sytuacji, przyczynić się do kolejnej fali krytyki (tym razem nie tylko, czy głównie ze strony mass-mediów, ale także zwykłych użytkowników). Zobaczymy co przyniosą kolejne aktualizacje, jednak z perspektywy polskich użytkowników na wiele (odnośnie poprawek) bym nie liczył…
To bardzo niska wycena (5mln $), ale firma nie miała wyjścia, mając 18 milionów dolarów niespłaconych zobowiązań. Tak czy inaczej, warto przypomnieć w tym miejscu, że w najlepszych dla serwisu czasach, jego wartość wyceniano na miliard osiemset milionów dolarów! Co więcej, rywal OnLive, serwis Gaikai został sprzedany koncernowi Sony za 380 milionów dolarów. Podsumowując, sytuacja serwisu musi być naprawdę kiepska. Czy nowy właściciel tchnie życie w usługę, która poniekąd rozpropagowała ideę chmurowego grania, streamingowych usług? Na pewno ten segment rynku ma potencjał, pokazują to wyniki konkurencji oraz unikalne możliwości (multiplatformowość, dostęp do dowolnej gry bez względu na to, na jakim systemie się ukazała etc., możliwość implementacji w HDTV (smartTV), handheldach…). Niebawem pewnie się przekonamy jak to będzie…
Microsoft się zmienia. Firma, której głównym i przez wiele lat zasadniczym produktem było oprogramowanie (oraz źródłem dochodów) szeroko wchodzi na rynek hardware. To już nie są myszki, klawiatury, a nawet specyficzne, dedykowane określonym celom (rozrywka) urządzenia pokroju Xbox 360. Po tabletach (Surface) zapewne przyjdzie czas na smartfony. Nadal wielu powątpiewa oraz nie wierzy w ten strategiczny zwrot (o którym wspomina Ballmer). Lepiej żeby uwierzyli, bo korporacja jest zdeterminowana by zaoferować klientom swoje natywne rozwiązania, wprowadzić (masowo) na rynek własne urządzenia. Jak ktoś wątpił, czy firma jest wystarczająco zdeterminowana, czy to aby nie jest kaprys, to teraz – szczególnie po ostatnich wypowiedziach CEO MS – chyba już nie ma żadnych wątpliwości. Według Ballmera taki Surface jest komplementarny z innymi urządzeniami, nie stanowi więc zagrożenia dla partnerów. Cóż, można w tym miejscu zdobyć się na polemikę, wielu wytwórców, których łączą wieloletnie, partnerskie doświadczenia z Microsoftem, uważa coś wręcz przeciwnego.
Niektórzy bardzo mocno krytykują MS, grożąc zrewidowaniem swojej strategii (przykładem Acer). Nowe produkty (innowacyjne), rozwój awangardowych interfejsów (patrz Kinect) to coś, czym MS chce się w przyszłości zajmować. Jak widać, do tego potrzebuje własnego hardware i w sumie trudno się dziwić. Napisałem o zwrocie, ale CEO MS uważa, że nie jest to żaden zwrot, a prosta konsekwencja tego w jakim kierunku rozwija się cała branża IT. I w sumie ma sporo racji (choć wypuszczenie produktów przez firmę z Redmond, co podtrzymuję, jest jednak sporą rewolucją). Przyszłość to kombinacja sprzętu oraz software, ścisła symbioza – dlatego Microsoft chce rozwijać, poza oprogramowaniem, hardware.
Kolejna misja i jak wszystko wskazuje udana, choć nie obyło się bez problemów, kiedy po starcie jeden z silników przestał działać. Na szczęście odbyło się to w takiej fazie lotu, poza tym rakieta Falcon jest tak skonstruowana, że ta awaria nie wpłynęła w sposób krytyczny na misję. Rakieta ponownie wyniosła na orbitę kapsułę Dragon, tym razem wykonując już nie testową a normalną misję dostarczenia wyposażenia na ISS. Dzisiaj udało się bezproblemowo zadokować pojazd, co potwierdza, że Elonowi Muskowi udało się stworzyć coś, z niczego. Oczywiście bez wsparcia agencji kosmicznej, NASA, nie udałoby się to – szef SpaceX potwierdza to niemalże na każdym kroku.
Niektórzy roztropnie zapytają gdzie tu sens, gdzie logika – wcześniej także cały przemysł kosmiczny należał do rąk prywatnych, tyle że realizował rządowe projekty, finansowany był z funduszy publicznych. Teraz chodzi o komercjalizację, co jednakowoż w przypadku NASA nie oznacza żadnej, większej, jakościowej zmiany. Daje odrobinę nadziei, że może, w przyszłości, kiedy prywatne rakiety i statki będą odpowiednio zaawansowane, pewne, uda się zrealizować misje wykraczające poza to, co znamy… od kilkudziesięciu lat. Nie piszę tego, po to by szukać dziury w całym. Wystarczy przeczytać wypowiedzi jednej z najbardziej doświadczonych, byłych astronautek, która bardzo krytycznie ocena to, co się dzisiaj dzieje (patrząc przez pryzmat dokonań lidera – USA). Trudno polemizować, bo faktycznie naprawdę wielkie przedsięwzięcia wymagają zaangażowania rządów, wielkich programów – nie ma co do tego żadnych wątpliwości.
Musk jest świetnym inżynierem, bardzo dobrym organizatorem i biznesmenem przy okazji, ale niestety nie może zapominać o ograniczeniach… jego słowa o misjach dalekiego zasięgu brzmią trochę jak S-F. Rzecz jasna można na całość popatrzyć z innej, optymistycznej strony: jeszcze parę lat temu prywatne przedsiębiorstwo dysponujące własną, skonstruowaną samodzielnie za swoje środki, rakietą oraz zapleczem wyglądało na fantastykę. Nie zapominajmy jednak, że ten biznes zawsze miał mocne fundamenty w prywatnych firmach, w prywatnym kapitale, jest to więc pewne przesunięcie akcentów, możliwość komercjalizacji usług (co przecież wcale nie musi oznaczać, że nagle polecimy na Księżyc – rachunek ekonomiczny musi się zgadzać, a wszystko co dotyczy lotów poza naszą orbitę jest na bakier z tym rachunkiem).
Wygląda na to, że zapowiedzi CEO Nokii o najlepszej, biznesowej platformie mobilnej Windows Phone, mają szanse się w końcu urzeczywistnić. Firma Oracle chce integrować swoje aplikacje biznesowe oparte na środowisku Fusion Middleware z mapami zainstalowanymi w telefonach serii Lumia. Obsługa technologii Navteq (w ramach oprogramowania Oracle) będzie korzystać z platformy Nokia Location Platform wraz z wbudowanymi w środowisko warstwy pośredniej mechanizmami wyświetlania map – Fusion Middleware MapViewer. Z oficjalnych zapowiedzi wynika jednak, że firmy, które zamierzają wykorzystywać mechanizmy lokalizacyjne oparte na środowisku Nokia Location Platform będą musiały nabyć stosowną licencję bezpośrednio od fińskiego dostawcy. Może to znacząco poprawić wyniki fińskiego koncernu, który zmaga się od paru lat z poważnymi problemami organizacyjnymi oraz finansowymi. Zdaniem analityków w perspektywie kilku lat integracja oprogramowania biznesowego Oracle z technologiami Navteq może okazać się znaczącym źródłem przychodów Nokii.
Przedstawiciele firmy Nokia podkreślają, że strategia zakładająca licencjonowanie technologii Navteq jak najszerszemu gronu odbiorców ma pozwolić na skuteczne konkurowanie z innymi dostawcami map cyfrowych – w tym z koncernem Google. To właśnie ten produkt, czy raczej cały wachlarz produktów nawigacyjno-lokalizacyjnych stanowi głównego konkurenta dla Nokii. Warto nadmienić, że Google rozbudowując swój system nawigacyjno-mapowy wiele energii poświęca na integracje różnorodnych danych, informacji biznesowych. W kontekście głównego źródła przychodów firmy (ponad 90% stanowią reklamy) specjalnie to nie dziwi. Jednakże Nokia ma tutaj coś do zaoferowania – w zgodnej opinii ekspertów jej nawigacja jest jedną z najlepszych, o ile w ogóle nie najlepszą, kompleksową nawigacją samochodową oferowaną za darmo na rynku. Nie dziwi zatem integracja map Navteq w wybranych modelach samochodów marki BMW, Mercedes, Volkswagen i Hyundai.
Szczerze polecam lekturę tekstu kolegów z NetWorld, którzy opisali i omówili w przystępny sposób trzy najnowsze technologie bardzo bliskiej komunikacji: NFC, Bluetooth 4.0 oraz WiFi Direct. Obecnie mamy ciekawą sytuację na rynku, kiedy to niejako w tym samym czasie trafiają trzy rozwiązania realizujące podobne (choć nie takie same!) funkcje. Właściwie to dwie pierwsze można uznać za do pewnego stopnia konkurencyjne wobec siebie. Jednakże zaletą wszystkich wymienionych powyżej jest to, że każda czymś się wyróżnia i każda rozszerza możliwości sprzętu, niekoniecznie dublując funkcjonalność pozostałych. O NFC jest teraz głośno za sprawą zbliżeniowych płatności, jednakże to tylko jedno z wielu zastosowań tej technologii.
W Polsce na szczęście mamy całkiem sporo terminali PayPass, co oznacza że wspomniane zastosowanie nie będzie tylko ciekawostką, a alternatywą dla płatności kartowych. Jednak elektroniczny pieniądz to tylko jeden z aspektów wykorzystania NFC – innym jest przykładowo omówiona w artykule aplikacja, pozwalająca na dzielenie się krótkimi informacjami z innym użytkownikiem poprzez zbliżenie się do siebie telefonów. Nie trzeba niczego parować, wszystko odbywa się automatycznie. Można w ten sposób przesłać miejsce i datę spotkania, wizytówkę, zapiski w kalendarzu, kontakty. Brzmi znajomo jednak w tym wypadku niewątpliwą zaletą jest brak parowania, które trzeba przeprowadzić w przypadku łącza BT.
CEO Apple przeprasza za katastrofalne mapy. Przeprosiny ze strony firmy z Cupertino to w ogóle bardzo rzadki przypadek, a forma tych konkretnych przeprosin jest bardzo szczególna i wymowna. Otóż CEO Apple nie tylko przyznaje, że przed firmą sporo pracy poświęconej doskonaleniu nowych map, że nie podołano zadaniu ich dopracowania. Przeprasza za niedogodności wynikające z ich użytkowania, ale także zachęca do skorzystania z produktów konkurencji, które dostępne są w AppStore, a nawet przeglądarkowej wersji map Google. Tak właśnie, map które przed momentem Apple pozbyło się ze swojego system. Do tego Cook wymienia między innymi microsoftowy Bing oraz Waze. To chyba najdobitniej świadczy o porażce jaką poniosła firma wprowadzając swoje autorskie mapy. Przyznanie się do błędu, przeprosiny dają nadzieję, że firma wyciągnie wnioski z wpadki i nie tylko ostro weźmie się do pracy, ale zmieni sposób tworzenia tego typu aplikacji.
Wczoraj opublikowaliśmy artykuł o mapach, powołując się na eksperta, który nie pozostawił suchej nitki na produkcie Apple. Jak widać szefostwo firmy widząc narastającą falę krytyki oraz głosy specjalistów z branży, którzy gremialnie określili obecny produkt Apple mianem niewypału, postanowiło zareagować. Trzeba wszakże pamiętać, że cała afera z mapami zbiega się z najważniejszym dla firmy wydarzeniem – premierą nowego smartfona. To właśnie iPhone generuje największe zyski, jest ikoną, znakiem rozpoznawczym firmy. Apple całkiem słusznie obawia się, że ta fala krytycznych wypowiedzi wpłynie na wyniki rynkowe nowego modelu. Wiadomo, że największe żniwa przypadają na pierwszy kwartał, maksymalnie 5-6 miesięcy po premierze. Poniżej przeprosiny w oryginale…
CEO Google postanowił skomentować skandal związany z koszmarną jakością map w nowym systemie mobilnym Apple. Zdaniem Schmidta firma z Cupertino popełniła duży błąd, wprowadzając niedopracowany produkt, rezygnując z czegoś, co dobrze do tej pory działało. Co ciekawe wcale nie była do tego zmuszona – umowa między partnerami obowiązywała do końca 2013 roku. Jednak Apple postanowiło wyrzucić google`owe mapy ze swojego systemu. Zdaniem szefa Google, nie było szans na przekonanie Apple, że to nie jest najlepszy pomysł (czytaj: wprowadzenie, niejako z marszu, swojego systemu geolokacji). W jego opinii, Apple było zdeterminowane, aby wyrzucić wszystko, co kojarzy się z konkurencją ze swojego systemu. Nawet jeżeli oznaczało to wprowadzenie rozwiązań gorszych, względnie usunięcie czegoś bez zaoferowania zamiennika (patrz YouTube).
CEO rozwiał nadzieje wszystkich użytkowników iOS6 na rychłe pojawienie się aplikacji z mapami Google w AppStore. Takie oprogramowanie nie zostało nawet zgłoszone do akceptacji. Może to być zaplanowany ruch ze strony Google, które w ten sposób zaszkodzi konkurentowi, który wyraźnie nie poradził sobie z alternatywą i teraz właściwie pozostaje mu w pocie czoła, przez wiele miesięcy, albo i lat, pracować nad udoskonalaniem produktu, który w ogóle nie powinien w tej formie trafić na rynek. Firma z Moutain View może najzwyczajniej w świecie rozpocząć kampanię pod hasłem: „tylko u nas użyteczne mapy, dobra nawigacja” i w ten sposób, boleśnie ugodzić w największego konkurenta. W przypadku map Apple bazowano na danych od TomToma, które są całkiem niezłe, tyle że dotyczą nawigacji samochodowej, nie są zatem żadnym odpowiednikiem map Google (które kładą nacisk na POI, na informacje dotyczące miejsc, charakterystycznych punktów geograficznych, poza adresami oferując informacje nt. usług itd. itp.). Zdaniem ekspertów od map, Apple zajmie lata dopracowanie swojego systemu (przygotowuję artykuł na ten temat). Oczywiście firma może iść na skróty, problem w tym, że musiałaby zgłosić się do konkurencji (Nokia/Microsoft) po pomoc. Po pierwsze byłoby to kosztowne, po drugie konkurencja wcale nie musi być skora do… udzielenia pomocy.
W ciągu najbliższych paru lat największe polskie miasta będą inwestować sporo pieniędzy w budowę oraz rozwój sieci światłowodowych. Poprawa infrastruktury pozwoli na integrację miejskich systemów informatycznych, pośrednio przyczyni się także do rozwoju infrastruktury poza metropoliami. Władzom samorządowym zależy głównie na integracji miejskich systemów informatycznych w spójny ekosystem, który dostarczy wysoce przetworzone informacje, pozwalające szybciej reagować, szybciej rozwiązywać problemy, usprawni pracę poszczególnych służb, instytucji zintegrowanych w jednolity system.
Dostarczenie spójnych informacji dla celów zarządczych jest dzisiaj priorytetem dla większości miejskich służb IT. Dostęp do wysoko przetworzonych informacji i analiz staje się kluczowym czynnikiem rozwoju aglomeracji miejskich. Nie chodzi tu tylko o integrację systemów używanych w urzędach. Miasta chcą integrować systemy wszystkich jednostek miejskich. W samych urzędach będą wykorzystywać w coraz większym zakresie systemy zintegrowane klasy ERP.