LogowanieZarejestruj się
News

E-Polska później

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
132

To news trochę obok tematyki, której głównie poświęcamy swoją uwagę na łamach HD-Opinie.pl. Rzecz jest jednak ważna, dotyczy każdego z nas i – nie ma co ukrywać – wywołuje spore emocje (wśród tych, którzy śledzą przebieg prac nad informatyzacją naszego państwa). Niestety nie mamy dobrych informacji, znowu przesunięto termin wprowadzenia kluczowych elementów systemu informatycznego dla administracji, co oznacza że nowe dokumenty, nowe, pozbawione kuriozalnych zapisów przepisy, wejdą w życie dopiero za dwa lata. Miało być inaczej, między innymi pod koniec br mieliśmy w końcu zrezygnować z całkowicie bezsensownego obowiązku meldunkowego, niestety nic z tego nie wyszło (swoją drogą ciekawe dlaczego mamy czekać na usunięcie obowiązku meldunku – do tego nie trzeba nowego systemu informatycznego).

Powodem tych opóźnień jest konieczność budowania systemów PESEL i CEPiK od nowa. Wprowadzenie nowoczesnych rozwiązań z zakresu ewidencji ludności oraz pojazdów musi poczekać. W ogóle, co przyznają nawet sami urzędnicy w Ministerstwie Administracji i Cyfryzacji, informatyzacja centralnych urzędów idzie jak po grudzie. Tracimy ogromne pieniądze (unijne), których nie jesteśmy w stanie wykorzystać, które nam przepadają. Przypomnijmy, już za trzy miesiące miał zacząć działać system, dzięki któremu każdy z nas mógłby wyrobić dowód osobisty w dowolnym miejscu w kraju lub przez Internet. Miały to regulować dwie nowe ustawy: o ewidencji ludności i o dowodach osobistych. Dzięki nim z blankietu dowodu zniknąć miały też informacje o wzroście, kolorze oczu, adresie zameldowania. Oznaczałoby to znaczące uproszczenie oraz usprawnienie funkcjonowania całej machiny administracyjnej, a przede wszystkim ułatwienia dla obywateli (brak konieczności wymiany dokumentu, wspomniane usunięcie nieżyciowych przepisów). Co otrzymaliśmy w zamian? Kolejne oczekiwanie…

Zawsze i wszędzie podłączony… cały świat online dzięki Super WiFi

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
blog-ieee-802.22

Dzisiaj już chyba nikt nie ma wątpliwości, że dostęp do Internetu, do sieci, ciągły dostęp jest czymś, bez czego nie da się normalnie funkcjonować. Nasze uzależnienie od ciągłego bycia online zaczyna przypominać łańcuch, który łączy nas z naszym telefonem (niekoniecznie mam tu na myśli smartfona, chodzi o jakikolwiek telefon komórkowy) – nie ważne gdzie, nie ważne kiedy, zawsze możliwość komunikowania się jest na liście absolutnych priorytetów. W dzisiejszych czasach brak możliwości natychmiastowego skomunikowana się oznacza stan nienormalny, związany z jakimiś nieprzewidzianymi okolicznościami. Podobnie jest z siecią, szczególnie, że ta zastępuje powoli tradycyjne środki telekomunikacyjne, zastępuje radio, zastępuje telewizje, staje się syntezą tego wszystkiego, co do tej pory funkcjonowało niejako oddzielnie.

To jednak nie wszystko, to dopiero początek. Sieć w obecnej i przyszłej postaci to także „Internet rzeczy” (Internet of things), cały wszechświat urządzeń wpiętych do Internetu, właściwie dotyczy to każdego sprzętu, który użytkujemy na co dzień. Czy to środki komunikacji, czy domowe AGD, rozliczne czujniki pozwalające na kontrolę i sterowanie wszystkim, tysiące rozwiązań opartych na geolokacji, inteligentne ubrania i tak można by wymieniać pewnie bez końca – wszystkie te rzeczy stanowią, albo w niedalekiej przyszłości będą stanowiły stały element rzeczywistości. Oczywiście, aby ta wizja ciągłego bycia online się ziściła, konieczna jest nawet nie ewolucja, a rewolucja w dostępie do sieci. Obecny stan w praktyce uniemożliwia powstanie spójnego ekosystemu, hamuje i utrudnia postęp w rozwoju urządzeń podłączonych do Internetu.

Przesadzam? Chyba jednak nie. Popatrzmy jak to dzisiaj wygląda – jesteśmy skazani na korzystanie z uciążliwego, opartego na interesach poszczególnych operatorów łącza 3G/4G, bezprzewodowego „okna”, które nie tylko nie gwarantuje nam odpowiednich parametrów transferu, ale jest dodatkowo obarczone rozlicznymi obostrzeniami, umowami, warunkami danego dostarczyciela. To prawdziwy koszmar od strony użytkownika, dodatkowo nie ma co liczyć na bezproblemowe działanie w lokalizacjach określanych mianem białych plam, mikrofale kiepsko sprawdzają się w budynkach (słabe penetrowanie przez ściany, zapomnijcie o sieci w… piwnicy, windzie), no i te cenniki, te ograniczenia transferu, te wysokie opóźnienia. To wszystko skutecznie zniechęca, dodatkowo obecne sieci bezprzewodowe (poza popularnymi 3G/4G, różne odmiany radiowego WiFi, np. WiMAX, która wykorzystywana jest jako rozwiązanie szkieletowe), zupełnie nie sprawdzają się w przypadku licznych aplikacji (wspomniane AGD, częściowo transport, czujniki w budynkach etc), które stają się coraz popularniejsze, albo zaraz się takimi staną. Idealnym rozwiązaniem wydaje się Super WiFi. Dlaczego? Popatrzmy…

» Czytaj dalej

Relacja z IFA 2012 – co ciekawego pokazano i powiedziano…

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
ifa-2012-logo

Zdaje się, że z roku na rok rośnie liczba lodówek, odkurzaczy, wszelkiego AGD. Nie to, żebyśmy mieli coś przeciwko tym, jakże potrzebnym sprzętom domowym, ale impreza coraz bardziej przeistacza się w pchli targ, co gorsza wiele rzeczy pokazuje się w różnych miejscach (mimo, że należą do tej samej kategorii – nie ma sensu sugerować się kolorami, bo czasami wprowadzają w błąd). Dobrze, dość marudzenia, w telegraficznym skrócie przedstawię Wam najciekawsze rzeczy, parę interesujących informacji – udało się uczestniczyć w konferencji Logitecha poświęconej cyfrowemu audio… to co na niej powiedziano odzwierciedlało w pełni to, co w dziedzinie dźwięku pokazano na targach.

Dowiedzieliśmy się paru szczegółów na temat urządzeń, które dopiero zadebiutują na rynku (i to w perspektywie drugiej połowy 2013), na temat AMOLED-ów informacje były nad wyraz skąpe (konkrety dotyczące europejskiej premiery), same telewizory rzecz jasna robiły odpowiednio duże wrażenie (na marginesie, widać po rozmachu i wielkości, kto jest dzisiaj czołowym producentem AV… tak, właśnie, Koreańczycy wyraźnie liderują), poza tym coraz więcej mówi się o następcy fullHD – faktycznie temat 2K/4K zagospodarowali wszyscy czołowi wytwórcy, jednak na razie to typowe stroszenie piórek – źródeł, kontentu po prostu nie ma i jeszcze (długo) nie będzie.

Skąd to wiemy? Wystarczyła krótka rozmowa z dystrybutorami oraz nadawcami, bardzo ciekawie wypowiedział się na ten temat przedstawiciel TechniSata: w przypadku talerza, nie ma żadnych szans na taki przyrost koniecznych do przesłania danych – transpondery nie są z gumy, a każdy nowy sputnik kosztuje krocie i w dobie kryzysu nikt nie będzie szarpał się na dwa kanały w super jakości (bo więcej się nie zmieści). Nie ma o czym mówić. Tak więc UHDTV jak najbardziej, ale nadawane naziemnie oraz oferowane jako materiał na jakimś (?) nośniku. Napisałem – jakimś – bo tu przy 22 kanałach audio nawet 100GB płyta Blu-ray nie wystarczy (przy 4K w ogóle nie wystarczy). No dobrze, czas na nieco szczegółów. Poniżej relacja z targów (opis naszym zdaniem najciekawszych produktów oraz trendów) – czytaj – nasze wrażenia z IFA 2012 na gorąco. Zdjęcia są odpowiednio zatytułowane, odpowiednio do treści ;-) , czasami pojawia się dodatkowy komentarz…

» Czytaj dalej

Jeszcze o przegranym przez Samsunga procesie – werdykt może się nie utrzymać

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip

Komentatorzy w Stanach nie pozostawiają suchej nitki na werdykcie. Faktycznie parę rzeczy wygląda zupełnie niepoważnie, to znaczy decyzja została podjęta na podstawie niekoniecznie trafnych ocen i przesłanek, dodatkowo jakość pracy ławy przysięgłych obniżają ujawnione fakty. Wygląda na to, że ława przysięgłych wchodziła na salę sądową z ustaloną tezą. Brak zaznajomienia się z instrukcjami w tak skomplikowanej sprawie woła o pomstę do nieba. Co więcej, sami sobie w tym werdykcie zaprzeczają (Samsung musi np. zapłacić Apple 2 mln dolarów za to, że… nie naruszył prawa patentowego odnośnie jednego z urządzeń). Co więcej, przysięgli chyba nie bardzo potrafią liczyć (pomylono się o 10 000$, niby przy zasądzonym miliardzie mało, ale poddaje to w wątpliwość profesjonalizm tych ludzi). Rzecz jasna amerykański system sprawiedliwości jest specyficzny (ława to nie eksperci, to ludzie z ulicy), ale tu sprawa jest na tyle poważna, że rzecz będzie prześwietlana z każdej strony i już widać, że wyrok jest w wielu miejscach nie do utrzymania (Samsung składa apelację).

Polecam lekturę źródła, bo można dowiedzieć się wielu interesujących szczegółów. Wypowiedzi ławników niestety pokazują, że Ci ludzie de facto w ogóle nie powinni rozpatrywać tej sprawy (w taki sposób, tzn. bez zaznajomienia się z dokumentacją). Wypowiedź jednej z ławniczek jasno pokazuje, że niektórzy podejmowali decyzje nie mając zielonego pojęcia o co chodzi… widać, jak na dłoni, w jaki sposób można wypaczyć taki przewód. Swoją drogą skojarzenia z „12 gniewnymi ludźmi” są jak najbardziej na miejscu – idealnie pasuje to do tej sprawy (może poza jednym, ważnym szczegółem, w filmie chodziło o człowieka a tutaj o krzem i plastik, no i duże pieniądze). Odnośnie paru kwestii prawnicy mówią wprost: konieczne są zmiany prawa, a niektóre rzeczy nadają się do przedłożenia Sądowi Najwyższemu, bo utrzymanie przepisów (tudzież ich obecnej interpretacji) godzi w cały system. W sumie, bardzo dobrze się stało, że ta sprawa wypłynęła i znalazła się na wokandzie. Niewykluczone, że w końcu ktoś zrobi porządek z kontrowersyjnymi zapisami i uporządkuje kwestie związane z prawem patentowym, prawami autorskimi etc.

Następca fullHD o 16-krotnie wyższej rozdzielczości (UHDTV)

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
super-hi-vision-format-chip

Międzynarodowy Związek Telekomunikacyjny zatwierdził nowy format telewizyjny UHDTV. Za parę lat będziemy oglądać 32MP w formacie 16-krotnie większym od dotychczasowego fullHD (1080p). Oznacza to, że nowy standard wizyjny wprowadza oficjalnie rozdzielczość 7680×4320 pikseli, co stanowi nie tylko ogromny postęp w stosunku do wspomnianego, obecnego HDTV, ale także znaczący krok naprzód w porównaniu ze standardem kina cyfrowego (4096×2190). Standard HDTV 8K, znany jako Super Hi-Vision, to nie tylko ogromna liczba pikseli, ale także aż 120 klatek na sekundę. Warto nadmienić, że dopuszczalna jest też mniejsza ilość klatek na sekundę w trybie progresywnym, a także rozdzielczość 3840 x 2160 pikseli. Jak dotąd nie ustalono, w jakim formacie będzie nadawany dźwięk w nowym standardzie, najprawdopodobniej jednak będzie to docelowo format 22.2. Jak już wcześniej informowaliśmy, pierwszych transmisji należy spodziewać się nie wcześniej niż w 2020 roku, na razie producenci wprowadzają na rynek pierwsze urządzenia zgodne z nowym standardem. Dostęp do źródeł jest mocno ograniczony, poza nielicznymi wyjątkami (materiały demonstracyjne, nieliczne realizacje, to co oferuje YouTube) obecnie brak źródeł w tym formacie. Jednak sytuacja będzie się zmieniać, na co wpływ będzie miało kino (np. Hobbit) oraz cała branża, która powoli oswaja się z nową technologią.

» Czytaj dalej

Apple wygrywa z Samsungiem w sądzie – miliard dolarów odszkodowania

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
applesamsungverdict.pdf-page-15-of-20

Suma ogromna, porażka Samsunga oczywista, Apple triumfuje – tak wygląda w skrócie sytuacja po werdykcie, jaki wydał amerykański sąd. Ogólnie ława przysięgłych dopatrzyła się złamania siedmiu patentów, trzech z zakresu użytkowania oraz czterech dotyczących designu. Największym sukcesem Apple, nie jest jednak samo stwierdzenie, że Koreańczycy naruszyli liczne patenty, ani nawet wzmiankowana suma ponad miliarda dolarów… to, co stanowi największy sukces to przyznanie przez sąd, że kształt handheldów Apple (a konkretnie modeli iPhone 3G/GS) to odpowiednik zastrzeżonego wzoru butelki Coca Coli.  Co prawda równie daleko idące wnioski nie dotyczą iPada, ale i tak jest to zdaje się więcej niż to, co zakładali prawnicy firmy z Cupertino że uda się uzyskać przed amerykańskim wymiarem sprawiedliwości. Zdaniem sądu wiele urządzeń Samsunga narusza ten wzór, co oznacza że de facto każde z tych urządzeń powinno być całkowicie przeprojektowane, aby nie łamać prawa. To już nie jest kwestia paru zmian w oprogramowaniu, czy niewielkich modyfikacji wyglądu, a całkowitego przemodelowania urządzeń. Co gorsza dla Samsunga żadne z jego oskarżeń pod adresem Apple nie zostało przez sąd uwzględnione.

» Czytaj dalej

Nowe PlayStation 4 będzie kompatybilne z rozdzielczością 4K?

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
A Sony logo is seen as customers look at Sony's digital cameras at an electronic shop in Tokyo

Z całą pewnością konsola PS4 będzie urządzeniem wyposażonym w najnowsze osiągnięcia techniki… oczywiście kluczową sprawą jest moment premiery. Jeżeli ta nastąpi w miarę szybko, specyfikacja może nie zawierać wielu awangardowych rozwiązań, choć akurat Sony znane jest z tego, że każda kolejna generacja konsoli otrzymuje najnowsze technologie. W przypadku następcy obecnego modelu najnowsze doniesienie krążą wokół wprowadzenia rozdzielczości 4K. Nowy standard, który ma zastąpić obecne fullHD 1080p, pojawi się na rynku dopiero za parę lat. Wprowadzenie takich możliwości w przypadku PS4 nie byłoby jednak ani na wyrost, ani specjalnie zaskakujące (z wyżej wymienionych powodów, w końcu PS3 w chwili premiery była awangardowym sprzętem z dopiero co wprowadzonym na rynek napędem Blu-ray oraz 3D, które dopiero po paru latach zostało rozpropagowane na rynku). Nie jest na wyrost, ponieważ cykl życia konsol jest względnie długi, wynosi co najmniej 5-6 lat, a PS3 będzie egzystować na rynku przez niemalże dekadę. Nieoficjalnie mówi się o następującej specyfikacji: czterordzeniowy układ AMD Fusion APU (3.2GHz), 2GB RAM, grafika Radeon HD 7900 wydajności 1800 GFLOPS taktowana 800MHz. Sprzęt ma zostać pokazany na przyszłorocznym E3. Obecnie dostęp do źródeł 4K jest mocno ograniczony, jasne jest jednak że sytuacja będzie ulegać zmianie, dodatkowo Sony będzie zależało, aby pomóc (wprowadzając PS4) w sprzedaży telewizorów i projektorów kompatybilnych z 4K.

Kolejna marsjańska sonda wyląduje na Czerwonej Planecie już w 2016 roku

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
InSight

Tym razem nie będzie to tak spektakularna misja, jak w przypadku Curiosity. Po pierwsze mówimy o statycznej sondzie, która po wylądowaniu nie ruszy się ani o milimetr, pozostając w miejscu przez cały czas trwania misji. Po drugie nie zobaczymy pięknych zdjęć powierzchni, nie będzie to medialne widowisko, tym razem zamiast widoków będzie …rycie w marsjańskim gruncie. Sonda InSight zostanie wyposażona w wiertło, które ma umożliwić zapoznanie się z geologią Czerwonej Planety, poszerzyć naszą wiedzę na temat skalistych planet, dać odpowiedź na wiele nurtujących naukowców pytań. Jednym z nich jest kwestia płyt tektonicznych, ich występowania na globach podobnych do Ziemi. Inną, bardzo ważną rzeczą wymagającą szczegółowych badań jest ustalenie, czy na Marsie pod powierzchnią znajdują się jakieś płynne źródła – co nie jest wykluczone, biorąc pod uwagę ukształtowanie powierzchni planety. Dodatkowo sonda otrzyma precyzyjny termometr, pozwalający zbadać w jaki sposób schładza się Czerwona Planeta. Sonda będzie tania, jej koszt wyniesie ok. 425 milionów dolarów – dla porównania Curiosity kosztowała 2.5 miliarda $.

Bardzo ciekawy artykuł na temat oprogramowania sondy Curiosity

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
Curiosity

Pan Marek Tuszyński, pracownik Jet Propulsion Laboratory (JPL – NASA) to jeden z wielu Polaków zatrudnionych przy tworzeniu oprogramowania oraz czujników sondy Curiosity, która właśnie rozpoczęła badanie Czerwonej Planety. Sonda, jak pamiętamy, szczęśliwie wylądowała na Marsie 6 sierpnia i od paru dni, po wcześniejszym sprawdzeniu aparatury i testach, zaczyna swoją właściwą misję, której celem jest między innymi określenie czy kiedyś na Czerwonej Planecie występowała woda. Poza tym chodzi o weryfikację różnych hipotez dotyczących teraźniejszości oraz przyszłości planety, zebranie danych, które pozwolą określić zakres przyszłych misji – bezzałogowych, z możliwością wysłania na Ziemię próbek oraz załogowych (horyzont czasowy – 2035-2045). W wywiadzie udzielonym polskiej prasie, Pan Marek zdradza sekrety oprogramowania sondy… to niezwykle ciekawa lektura, pokazująca jak trudnym i skomplikowanym procesem jest tworzenie kodu na potrzeby tego typu misji.

Warto zwrócić uwagę, że twórcy software muszą pogodzić się z licznymi ograniczeniami związanymi z hardware. Bardzo ostre wymagania dotyczące sprzętu IT wykorzystywanego przez NASA (proces weryfikacji i akceptacji dla techniki trwa niezwykle długo, jest bardzo czasochłonny) nie dają dużego pola manewru. Przykładowo nie można użyć nowoczesnych, potężnych jednostek obliczeniowych – w wielu obecnych sondach wykorzystuje się układy z lat 90 minionego wieku (procesory Intel Pentium, w Curiosity dwa komputery BAE RAD 750, oparte na CPU Power PC 133 MHz z 256 kB pamięci podręcznej EEPROM, 256 MB DRAM pamięci operacyjnej oraz 2 GB pamięci Flash). Jak zauważa Pan Marek, w wykorzystywanych obecnie CPU nie ma nawet pamięci podręcznej drugiego poziomu. Oczywiście fakt korzystania z takich, a nie innych rozwiązań, związany jest z niezawodnością, odpornością na promieniowanie, także mniej skomplikowana architektura stanowi w tym wypadku zaletę. Tak czy inaczej, software sondy jest niezwykle złożony, tworzą go 154 moduły, to 750 tysięcy linii kodu w języku C (napisanego ręcznie, bez tego, który generowany jest automatycznie), znaczna część służy wyłącznie wielopoziomowej diagnostyce.

Nasz rodak mówi, że co prawda nie było mowy o AI (sztucznej inteligencji), ale wiele cech opracowanego software zawiera coś, co można nazwać inteligencją. Warto zaznaczyć, że w przypadku obecnej misji, tak naprawdę chodzi o aż trzy aparaty – sondę kosmiczną, lądownik oraz łazik, stąd zapewne wynika ta złożoność oprogramowania. System operacyjny VxWorks firmy Wind River to fundament software sondy, który wraz z pozostałym oprogramowaniem podlega ciągłej modyfikacji – aktualizacje są częste, kod podlega ciągłym modyfikacjom, tworzone są nowe moduły. Prędkość transmisji danych wynosi 40 Mb/s - to docelowa prędkość transmisji danych z Ziemią, po wylądowaniu było to zaledwie 5 Mb/s. Cały, bardzo interesujący tekst, dostępny jest pod tym adresem.

» Czytaj dalej

Space X z Boeingiem będą wozić astronautów na orbitę

Podziel się na:
  • Wykop
  • Facebook
  • Digg
  • Google Bookmarks
  • Blip
spacexfalconheavydantetktk

Cóż, tego właśnie oczekiwaliśmy, takie były przewidywania po pamiętnej, udanej misji rakiety Falcon z pojazdem transportowym, który dostarczył zapasy na ISS. Po raz pierwszy prywatne przedsiębiorstwo dokonało tego typu operacji, która do tej pory była domeną paru najpotężniejszych państw, wielkich, rządowych agencji kosmicznych. Boeing jest odpowiedzialny za konstruowanie pojazdów transportowo-załogowych Dragon. System wynoszenia na orbitę jest domeną firmy Space X, przedsiębiorstwa znanego miliardera, wizjonera Elona Muska, który stworzył pierwszą komercyjną firmę zdolną podejmować tego typu wyzwania (loty na orbitę, wynoszenie pojazdów kosmicznych, w niedalekiej przyszłości loty załogowe). W sumie obie firmy zainkasują prawie miliard dolarów. Pierwsze loty przewidziano pod koniec bieżącej dekady (być może już w 2016-2017 roku, choć nie jest to data pewna). Dragon wraz z rakietami Falcon firmy Space X pozwoli na powrót Amerykanów do grona państw zdolnych do wynoszenia ludzi na orbitę. NASA widzi w komercjalizacji jedyne, realne rozwiązanie w przypadku eksploracji kosmosu – cięcia budżetu uniemożliwiają obecnie przygotowanie programu załogowego i nie chodzi tutaj o misje dalekiego zasięgu (Księżyc, Mars), o których obecnie w ogóle trudno dyskutować, ale loty na orbitę, głównie do stacji kosmicznej.

» Czytaj dalej