Kategorie
#Technologie: Aktualności

Aktualizować czy nie aktualizować

Dla przykładu, samoloty F-35 zostały zaprojektowane w taki sposób, by można było regularnie aktualizować systemy pokładowe i dokładać nowe funkcjonalności[1]. Złożoność systemów rodzi pytanie o potencjalne istnienie tylnych furtek (ang. backdoor) w oprogramowaniu samolotów czy innych środków militarnych. Czy dałoby się zdalnie unieruchomić flotę F-35[2] – takie pytanie zadają sobie potencjalni nabywcy tej zaawansowanej technologicznie broni. Marketingowcy i politycy będą zapewniać, że nie, ale gwarancji nikt nie da. Jeśli nawet aktualnie takich furtek nie ma, to mogą pojawić się w przyszłości przy okazji aktualizacji, czy to w wyniku celowego działania twórców czy ataku hakerów.

[1] https://www.defenseone.com/business/2025/03/f-35-get-new-software-summer-theres-no-date-yet-planned-full-upgrade/403536/

[2] https://ottawacitizen.com/news/national/defence-watch/u-s-f-35-fighter-jets-canada

Należy sobie uświadomić, że oprogramowanie może być wykorzystane jako broń (ang. software as a weapon, SaaW[1]), czy też amunicja[2] i to na wiele różnych sposobów, zarówno w scenariuszach defensywnych jak i ofensywnych.

Z jednej strony mamy mechanizmy zdalnej aktualizacji oprogramowania, w szczególności układowego (ang. firmware), mam tu na myśli m.in. mechanizm FOTA albo OTA, z drugiej zaszyte w kodzie warunki graniczne, które zadziałają w określonych okolicznościach, powodując zablokowanie kluczowych funkcjonalności lub wykonanie określonych akcji. Oczywiście wszystkie te mechanizmy mają pozytywne i negatywne zastosowania. Mogą służyć do ochrony przed zagrożeniami, ale także do siania chaosu czy zniszczenia.

Za przykład pozytywnego wykorzystania mechanizmu FOTA w celu zwiększenia poziomu bezpieczeństwa może służyć zdalne zwiększenie zasięgu samochodów elektrycznych, kiedy w 2017 roku nad Florydę nadciągał huragan Irma[3]. Natomiast warunki logiczne w kodzie chronią interesy licencjodawców w modelach subskrypcyjnych czy filtrują dane chroniąc przed wyciekiem informacji.

Afera z naszego krajowego podwórka, dotycząca pociągów „stających w szczerym polu”, potocznie zwana „aferą Impulsową” pokazuje, że warunki w kodzie można wykorzystać do mniej szlachetnych celów. Implementacja warunków powodujących unieruchomienie środków transportu, kiedy trafią one w określoną lokalizację lub osiągną określony przebieg[4], nie stanowi większego problemu. Podobne „zabezpieczenia”, zwłaszcza te oparte na pozycji geograficznej, można by wprowadzić w oprogramowaniu pojazdów militarnych czy innych środków bojowych.

Czasem oprogramowanie pod przykrywką sprawdzania aktualizacji czy telemetrii wysyła nadspodziewanie dużo danych, do których w ogóle nie powinno mieć dostępu. Świetnym przykładem jest tu transfer danych do Chin dokonywany przez oprogramowanie Adups FOTA preinstalowane kilka lat temu (w 2016 roku) na wielu modelach telefonów z niższej półki[1]. Oprogramowanie to wysyłało na zdalne serwery m.in. zawartość SMS-ów (sic!).

Powody do myślenia daje także „wpadka” z wadliwą aktualizacją oprogramowania CrowdStirke Falcon, która spowodowała 19 lipca 2024 roku awarię systemów Windows na wielką skalę, dotykając milionów systemów, w tym wielu systemów zlokalizowanych w portach lotniczych[2]. A co, gdyby taką wadliwą aktualizację „wypuścił” specjalnie, a nie przypadkiem producent popularnego systemu operacyjnego lub inny duży dostawca, np. na zlecenie pewnego rządu? Ile systemów stałoby się czasowo bezużytecznych? Notabene, niecelowe wypuszczanie niedopracowanych aktualizacji zdarza się producentom dość często – w przypadku giganta z Redmond najświeższy taki przypadek to aktualizacje z marca br.[3] Przypadek SolarWinds, jednego z większych dostawców oprogramowania do monitorowania i zarządzania infrastrukturą, pokazuje skuteczność ataków przez infiltracje producentów oprogramowania. Atakującym udało się przeniknąć do sieci organizacji i wstrzyknąć złośliwy fragment kodu (Sunburst) do oprogramowania monitorującego Orion. Oprogramowanie z wstrzykniętym dodatkiem zostało następnie wysłane do klientów razem z innymi aktualizacjami. Efekt, około 18000 klientów (w tym dużych firm) zostało zainfekowanych – uzyskano dostęp do ich infrastruktury[4].

Atak z zastosowaniem socjotechnik próbowano przeprowadzić również na popularną bibliotekę otwartoźródłową XZ. Infiltracja się powiodła, ale sam atak został udaremniony przez dociekliwego testera oprogramowania zaintrygowanego spadkiem wydajności w nowej wersji systemu. Osoby przeprowadzające atak długo pracowały nad tym by zdobyć zaufanie niezbędne do zrealizowania planu, czyli wstrzyknięcia kodu, który modyfikował zachowanie demona SSH (który pośrednio wykorzystuje biblioteki XZ)[5]. Gdyby plan udało się zrealizować, to atakujący za pomocą predefiniowanych poświadczeń uzyskali by zdalny dostęp do milionów serwerów na całym świecie.

Oprogramowanie jako broń sensu stricto, w walce z mniej lub bardzie sprecyzowanym wrogiem wykorzystują agencje rządów różnych krajów, np. eksploit EternalBlue[6] opracowała NSA w USA – ten kod został niestety przechwycony przez hakerów i wykorzystany do stworzenia m.in. WannaCry[7] (szczególnie popularnego w brytyjskich szpitalach). Kolejny głośny przykład Stuxnet (znany z uszkodzenia Irańskich wirówek przemysłowych) to podobno wspólne dzieło USA i Izraela[8]. Natomiast autorstwo stosunkowo świeżego oprogramowania Hatvibe i Cherryspy przypisuje się agencjom rosyjskim[9]. Oprogramowanie to było wykorzystywane m.in. do szpiegowania dyplomatów z Azji Centralnej. Przy okazji szpiegowania warto wspomnieć broń (wg. legislacji Izraela) jaką jest oprogramowanie Pegasus produkowane przez prywatną firmę NSO – jego sprzedaż jest objęta restrykcjami eksportowymi[10].

Współcześnie wykorzystywane oprogramowanie jest pełne błędów i niedociągnięć, które są sukcesywnie odkrywane i łatane. Część z tych odkrywanych błędów może być wynikiem celowego działania agencji wywiadowczych lub grup cyberprzestępczych. W wielu sytuacjach nie da się jednoznacznie określić czy luka w kodzie była celowym zabiegiem czy tylko zwykłym błędem. Zwykle zaczynamy się nad tym zastanawiać dopiero w sytuacji, kiedy odkrywane są ataki z użyciem nieznanych powszechnie podatności.

Przyzwyczailiśmy się już do ciągłych aktualizacji i nie zastanawiamy się czy i dlaczego są one konieczne. Ufamy dostawcom. To zaufanie nie powinno być jednak bezgraniczne, zwłaszcza w przypadku krytycznych systemów. Aktualizacje przed zainstalowaniem w krytycznych systemach produkcyjnych powinny zostać odpowiednio przetestowane i zweryfikowane. Warto też mieć „plan b”, czyli np. możliwość przywrócenia systemu do stanu pierwotnego.

Pamiętajmy, że aktualizacje są bronią defensywną chroniącą przed nowo odkrywanymi zagrożeniami, ale same też mogą być źródłem zagrożenia i mogą zostać wykorzystane jako broń ofensywna w celu zakłócenia działania systemów lub infiltracji organizacji.

Aktualizujmy systemy, ale rozsądnie. Wybierając wdrażane rozwiązania sprawdzajmy dostawców i ich powiązania.

[1] https://zaufanatrzeciastrona.pl/post/popularne-chinskie-telefony-przylapane-na-wysylaniu-smsow-i-kontaktow-do-chin/

[2] https://testerzy.pl/news/flash/nowa-najwieksza-w-historii-globalna-awaria-it

[3] https://www.windowslatest.com/2025/03/13/windows-11-kb5053598-issues-install-fails-rdp-disconnects-bsods-windows-11-24h2/

[4] https://www.fortinet.com/resources/cyberglossary/solarwinds-cyber-attack

[5] https://www.wired.com/story/xz-backdoor-everything-you-need-to-know/

[6] https://pl.wikipedia.org/wiki/EternalBlue

[7] https://cert.pl/posts/2017/05/wannacry-ransomware/

[8] https://foreignpolicy.com/2016/10/17/obamas-general-pleads-guilty-to-leaking-stuxnet-operation/

[9] https://votiro.com/blog/browser-security-understanding-malware-like-hatvibe-and-cherryspy/

[10] https://en.wikipedia.org/wiki/NSO_Group

[1] https://link.springer.com/chapter/10.1007/978-3-662-56672-5_4

[2] https://blog.lukaszolejnik.com/software-as-munitions-including-offensive-tools/

[3] https://www.theverge.com/2017/9/10/16283330/tesla-hurricane-irma-update-florida-extend-range-model-s-x-60-60d

[4] https://cyberdefence24.pl/cyberbezpieczenstwo/za-nami-rok-blokad-w-pociagach-newagu-co-dzis-wiemy

Maciej Miłostan

Kategorie
#Technologie: Aktualności

Kraków był stolicą europejskich superkomputerów

„Łączenie społeczności HPC, kwantowych i AI w całej Europie” – to temat przewodni tegorocznego spotkania w Krakowie. 

Uczestnicy mogli wziąć udział w sesjach plenarnych, ale także mieli szansę na zapoznanie się z szerokim zakresem tematów. Głównym punktem wydarzenia była strefa demonstracyjna Demo Lab, w której Europejskie Wspólne Przedsięwzięcie w dziedzinie Obliczeń Wielkiej Skali (European High Performance Computing Joint Undertaking, w skrócie EuroHPC JU) zaprezentowało superkomputery operacyjne.

EuroHPC Summit było nie tylko okazją do prezentacji najnowszych osiągnięć, ale także miejscem licznych spotkań, paneli i dyskusji o przyszłości fabryk AI.

Wśród uczestników spotkania nie zabrakło przedstawicieli Konsorcjum PIONIER, m.in. z ACK Cyfronet, ICM, PCSS, TASC i WCSS.

Oprac. Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

Diamentowa droga otwartego dostępu

Diamentowy model otwartego dostępu polega w skrócie na tym, że wydawcy czasopism nie pobierają opłat ani za dostęp do publikacji (od czytelników), ani za publikację (od autorów artykułów). W czasopismach diamentowych nie pobiera się opłat autorskich, tzw. author processing charges (APCs). 

 

Spotkanie adresowane jest do wydawców, redakcji czasopism, bibliotek oraz wszystkich zainteresowanych przyszłością otwartego dostępu w Polsce! W trakcie spotkania przedstawione zostaną narzędzia i zasoby DIAMAS wspierające czasopisma diamentowe (w tym DIAMAS Toolsuite i narzędzia do samooceny). Oprócz tego uczestnicy zapoznają się z rezultatami CRAFT-OA (prezentacja narzędzia Digital Diamond Hub i omówienie wyzwań związanych z wdrażaniem narzędzi dla wydawców).

Zaplanowano również dyskusję dotyczącą identyfikacji potrzeb, barier i oczekiwań wobec modelu diamentowego. Może wśród naszych Czytelników znajdą się osoby zainteresowane tym wydarzeniem, do którego wzięcia serdecznie Państwa zapraszamy! 

Aby wziąć udział w wydarzeniu, należy wypełnić formularz rejestracyjny. Liczba miejsc ograniczona!

Oprac. Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

GÉANT: sieć, chmura i bezpieczeństwo

35. posiedzenie Zgromadzenia Ogólnego GÉANT miało miejsce w Poznaniu w pierwszych dniach marca. Ze strony PCSS udział w nim wzięli stali reprezentanci sieci PIONIER – Artur Binczewski i Raimundas Tuminauskas, a także w roli obserwatora nowy Pełnomocnik Dyrektora Instytutu ds. PCSS – Robert Pękal. W ramach członkostwa w BoD, które prowadzi całe posiedzenie, w Zgromadzeniu Ogólnym brał również udział dr inż. Cezary Mazurek.

Kilkudziesięciu przedstawicieli społeczności projektu GÉANT dyskutowało nad najważniejszymi kwestiami związanymi m.in. z budżetem projektu, kolejnymi fazami etapów wdrażania usług oraz realizacją złożonych planów inwestycji. Spotkanie było także okazją do przestawienia wniosków i pomysłów do realizacji z perspektywy sieci narodowych.

W Poznaniu odbyły się również wybory. Dragana Kupres (CARNET), Leonie Schäfer (DFN), Ramaz Kvatadze (GRENA) – tych trzech członków zostało wybranych lub ponownie wybranych do Komitetu Planowania Projektu GÉANT (GÉANT Project Planning Committee, GPPC) – organu przedstawicieli NREN. Nadzoruje i kieruje on planowaniem i składaniem wniosków, w tym tych mających na celu realizację Horyzontu Europa GN5-FPA, w który angażuje się Stowarzyszenie GÉANT. Komitet zawsze stara się, aby reprezentowany był szeroki zakres wiedzy specjalistycznej we wszystkich obszarach tematycznych, w tym sieci, chmury czy bezpieczeństwo.

– W imieniu społeczności GÉANT chciałbym podziękować nominowanym i nominującym oraz powitać naszych nowych i ponownie wybranych członków – powiedział w Poznaniu Tryfon Chiotis, Chief Programmes Officer i współprzewodniczący GPPC. – Skorzystam również z okazji, aby podziękować naszym obecnym członkom za ich ciągłą służbę – to dobre przypomnienie o całej ciężkiej pracy za kulisami, która przyczynia się do sukcesu projektów GÉANT.

Cały tydzień z GÉANT w Poznaniu był także okazją do zaprezentowania uczestnikom infrastruktury sieci PIONIER, laboratoriów CB PIO (w tym komputerów kwantowych oraz infrastruktury czasu i częstotliwości), a także rozmów dotyczących budowy europejskiej infrastruktury komunikacji kwantowej QCI, z udziałem PIONIER-Q.

Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

Światłowody jako czujniki – działanie i zastosowania

Światłowody, znane głównie z zastosowań w telekomunikacji, odgrywają również istotną rolę jako precyzyjne czujniki w różnych dziedzinach nauki i przemysłu. Dzięki swoim unikalnym właściwościom, takim jak odporność na zakłócenia elektromagnetyczne, niewielkie rozmiary oraz możliwość pracy w trudnych warunkach, znajdują zastosowanie w pomiarach fizycznych, chemicznych i biologicznych.

Zasada działania

Światłowody jako czujniki wykorzystują zjawisko zmiany propagacji światła w ich wnętrzu, które mogą być spowodowane różnymi czynnikami zewnętrznymi, takimi jak:

  • zmiany natężenia światła, np. w wyniku zginania światłowodu lub pochłaniania światła przez substancje,
  • zmiany fazy lub częstotliwości, wykorzystanie interferometrii do pomiarów dokładnych zmian parametrów środowiska,
  • zmiany polaryzacji, czułość na naprężenia mechaniczne,
  • rozpraszanie światła, zjawiska takie jak Rayleigha, Brillouina czy Ramana, umożliwiają monitorowanie zjawisk akustycznych, temperatury czy naprężeń.

Rodzaje czujników światłowodowych

Czujniki punktowe mierzą parametry w konkretnym miejscu, np. czujniki naprężeń, temperatury lub ciśnienia. Popularnie wykorzystuje się czujniki zbudowane w oparciu o siatki Bragga. Elementy czujnikowe np. w pomiarach naprężeń mogą mieć złącza światłowodowe po obu stronach i mogą być używane samodzielnie lub szeregowo. Odczyt następuje poprzez urządzenie aktywne (interrogator), które może być oddalone nawet o kilka kilometrów. Czujniki te pozwalają na ciągłe monitorowanie stanu struktur, pęknięć i szczelin (np. w ścianach) – monitorowanie mostów, zapór, budynków, tuneli. Monitoringiem takim można również objąć np. statki, pociągi, konstrukcje skrzydeł samolotów i inne skomplikowane struktury.

Czujniki rozłożone (DAS – Distributed Acoustic Sensor, DTS – Distributed Temperature Sensor) umożliwiają pomiary wzdłuż całej długości światłowodu; stosowane są w monitorowaniu infrastruktury takiej jak rurociągi, trakcje kolejowe czy linie energetyczne. Zaletą tych czujników jest duży obszar działania, nawet do 100 km.

Pomiary DAS znajdują zastosowanie w monitoringu i zabezpieczeniu kanalizacji teletechnicznej, dużych powierzeni terenu czy ochrony obwodowej. Pozwalają na detekcję z dużą precyzją, informują użytkownika o odległości, w której zdarzenie miało miejsce i typie alarmu wywołanego w danym miejscu instalacji na przykład kopanie w ziemi, bieg czy przejście po ziemi nad zakopanym kablem (detekcja w poprzek lub wzdłuż światłowodu), wspinanie się po ogrodzeniu itp. Można określić również kierunek przemieszczania się obiektów i ich prędkość. Jeżeli w otoczeniu światłowodu poruszają się pojazdy mechaniczne, to analizując amplitudę zmian można wykryć ich rodzaje – ciężki czy lżejszy pojazd. Do detekcji tego typu „zjawisk” idealnie nadają się algorytmy uczenia maszynowego czy sztucznej inteligencji.

Czujniki wielofunkcyjne pozwalają na jednoczesne pomiary różnych parametrów, np. temperatury i wibracji.

Zastosowania czujników światłowodowych:

  • PRZEMYSŁ: monitorowanie stanu technicznego budynków, mostów, tuneli, trakcji kolejowych, rurociągów, wież wiatrowych,
  • ENERGETYKA: kontrola temperatury w transformatorach i liniach energetycznych, detekcja awarii kabli,
  • MEDYCYNA: czujniki ciśnienia w mikrochirurgii, monitorowanie parametrów biochemicznych,
  • GEOFIZYKA: monitorowanie ruchów sejsmicznych i osuwisk, badania geologiczne
    i geoakustyczne,
  • BEZPIECZEŃSTWO: detekcja intruzów poprzez analizę wibracji w światłowodach zainstalowanych wzdłuż ogrodzeń czy kabli światłowodowych zakopanych w ziemi, ułożonych na dnie akwenów czy też zawieszonych nad danym obszarem.

 Zalety czujników światłowodowych

  • wysoka precyzja pomiarów,
  • możliwość pracy w ekstremalnych warunkach (wysoka temperatura, wilgotność, wysokie natężenia pola elektromagnetyczne),
  • niewielka waga i kompaktowe rozmiary,
  • brak konieczności dostarczania prądu wzdłuż linii światłowodowej,
  • możliwość wykorzystania standardowego włókna światłowodowego.

    Wyzwania

    Pomimo licznych zalet, zastosowanie światłowodów, jako czujników wiąże się z wyzwaniami, takimi jak wysoki koszt instalacji i kalibracji. Konieczny jest zakup zaawansowanego sprzętu (interrogator) oraz wyposażenie systemu w duże magazyny danych, umożliwiając jednocześnie przetwarzanie ich dużych ilości. Kluczową kwestią jest również zaawansowana analiza sygnałów i prawidłowa detekcja zaobserwowanych anomalii. Jednak rozwój technologii światłowodowych i spadek kosztów produkcji sprawiają, że są one coraz powszechniejsze w różnych dziedzinach. Niewątpliwie dużą zaletą pomiarów typu DAS jest zastosowanie standardowego włókna jednomodowego. Istnieją też specjalne konstrukcje kabli światłowodowych, które lepiej przenoszą odkształcenia otoczenia bezpośrednio na światłowód. Ponadto metoda pomiarowa DAS, DTS nie wymaga specjalnych zakończeń ani pośrednich punktów regeneracji czy wzmacniania sygnału. Światłowody, jako czujniki, stanowią przykład nowoczesnych technologii o szerokim spektrum zastosowań w monitorowaniu i diagnostyce różnorodnych systemów i różnych środowiskach.

     

Piotr Turowicz

Kategorie
#Technologie: Aktualności

Nowe rozdanie FENG, czyli Q-ChronoS w różnych miejscach Polski

Przypomnijmy, że Fundusze Europejskie dla Nowoczesnej Gospodarki (FENG) to program operacyjny, którego celem jest zwiększenie potencjału Polski w zakresie wykorzystywania zaawansowanych technologii w gospodarce, a także na polu badań i innowacji.

“System mobilnych sensorów kwantowych z zegarami optycznymi zintegrowanych w sieciach telekomunikacyjnych (Q-ChronoS)” – związany będzie z budową systemów dwóch mobilnych sensorów kwantowych opartych na optycznych zegarach atomowych oraz infrastruktury do transferu częstotliwości optycznej, która umożliwi ich wykorzystanie w różnych miejscach Polski.

Projekt jest kierowany do szerokiego grona odbiorców skupionych wokół technologii kwantowych, geodezji, metrologii, fizyki, radiostrontium oraz komunikacji. Całkowity koszt projektu (FENG.02.04-IP.04-0024/24) wynosi 108 349 798,29 zł, w tym wysokość wkładu Funduszy Europejskich to 79 002 564,01 zł.

Koordynacją projektu ze strony Centrum Badań Kosmicznych PAN zajmuje się dr Jerzy Nawrocki z Obserwatorium Astrogeodynamicznego w Borowcu, Akademii Górniczo-Hutniczej w Krakowie – dr hab. inż.  Przemysław Krehlik, prof. AGH z Wydziału Informatyki, Elektroniki i Telekomunikacji, a toruńskiego uniwersytetu – dr hab. Michał Zawada, prof. UMK z Wydziału Fizyki, Astronomii i Informatyki Stosowanej. Wojbor Bogacki z Poznańskiego Centrum Superkomputerowo-Sieciowego został kierownikiem projektu, natomiast dr Krzysztof Turza odpowiada za prace merytoryczne w projekcie.

Prace PCSS skupią się na dwóch głównych zadaniach. Pierwsze to budowa, wspólnie z kolegami z UMK, mobilnych sensorów kwantowych w postaci zegarów optycznych. Drugie to budowa systemu długo-zasięgowej światłowodowej dystrybucji nośnej optycznej, który umożliwi porównywanie wskazań mobilnych zegarów optycznych. System ten będzie oparty o sieć PIONIER i umożliwi umiejscowienie mobilnych zegarów optycznych w każdym miejscu, gdzie jest obecna sieć PIONIER – wyjaśnia Wojbor Bogacki. – Wytworzona infrastruktura umożliwiać będzie prowadzenie prac badawczo-rozwojowych w takich obszarach jak: geodezja relatywistyczna, badania zmian potencjału grawitacyjnego, detekcji ruchów sejsmicznych, w bezpośrednim oceanograficznym pomiarze poziomu morza i dynamiki oceanów, badaniach radioastronomicznych, standaryzacji i metrologii czasu, w badaniach fundamentalnych, takich jak weryfikacja niezmienności stałych fizycznych, sprzężenia do pól modelu standardowego pól ultralekkiej skalarnej ciemnej materii, modelach ciemnej energii, ogólnego pola skalarnego z ukrytymi sektorami, teorii nowej fizyki Kaluzy-Kleina, modeli dylatonu lub solitonu, weryfikacji niezmienności Lorentza oraz jako testy grawitacji kwantowej, szczególnej teorii względności, detekcji fal grawitacyjnych i poszukiwaniach kosmologicznych defektów topologicznych.

Ponadto, wytworzona infrastruktura pozwala na świadczenie usług komercyjnych:

  • w technologiach georadarowych i wysokiej jakości obrazowaniu przestrzennym,
  • w zwiększeniu bezpieczeństwa technologii kryptografii kwantowej,
  • w kalibracji mikrofalowych i optycznych stacjonarnych zegarów atomowych, optycznej i kwantowej komunikacji w branży kosmicznej,
  • w kalibracji i testowaniu technologii fotonicznych, takich jak optyczne grzebienie częstotliwości,
  • w poszukiwaniach geologicznych dzięki kombinacji tradycyjnych grawimetrów i kwantowych sensorów geopotencjału,
  • w kwantowo ulepszonej synchronizacji czasu dla sieci komunikacyjnych,
  • w zwiększeniu niezawodności i odporności na zakłócenia sygnałów GNSS sieci radarowych.

Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

PIONIER na zdrowie!

Wydarzenie objęło ponad 100 krajów, 40 000 widzów i 20 operacji. Zorganizowane zostało we współpracy Europejskiego Towarzystwa Laryngologicznego, Poznańskiej Akademii Medycznej Nauk Stosowanych im. Księcia Mieszka I, Poznańskiego Centrum Superkomputerowo-Sieciowego oraz Wydziału Zdrowia i Spraw Socjalnych Urzędu Miasta Poznania.

W wydarzeniu uczestniczyły placówki medyczne m.in. z Barcelony, Marsylii, Luksemburga, Giessen, Leiden, a także Essen i Poznania.

Pierwszy raz w tego typu operacjach mogli uczestniczyć medycy z Kambodży, Madagaskaru oraz Martyniki.

Celem było pokazanie najnowszych metod operacyjnych stosowanych przez chirurgów z czołowych europejskich klinik laryngologicznych.

Kliniki, biorące udział w wydarzeniu, były ze sobą połączone poprzez platformę zdalnej współpracy medycznej medVC, umożliwiającą wielopunktową komunikację audio-wideo w czasie rzeczywistym. Dzięki temu chirurdzy z klinik byli w ciągłym kontakcie podczas całej sesji, mogli zatem na bieżąco wymieniać się spostrzeżeniami.

Cała sesja była nadawana w najwyższej jakości przez Internet z wykorzystaniem sieci PIONIER, której operatorem jest Poznańskie Centrum Superkomputerowo-Sieciowe.

oprac. Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

Świąteczne lampki

Rok kalendarzowy, w tym fiskalny, zmierza ku końcowi, a liczba pilnych do załatwienia spraw jakoś nie chce się zmniejszyć. Innymi słowy, przedświąteczna gorączka trwa, palce stukają w klawiaturę ze zdwojoną siłą, obroty w sektorze sprzedaży detalicznej, w tym internetowej, biją rekordy.  A my szukamy prawdziwych okazji i … przestępcy robią to samo – też szukają okazji. A okazji i możliwości jest naprawdę wiele.

Z jednej strony jesteśmy zmęczeni, przebodźcowani, z drugiej chcemy w trybie pilnym uszczęśliwić bliskich, potrzebujących lub po prostu siebie (niepotrzebne skreślić). Chcemy być gotowi do świętowania, czujemy presję – czasu coraz mniej. Szukamy, szukamy i trafiamy na „prawdziwe” okazje, mega przeceny, no i dobrze by zapaliły się nam świąteczne lampki – najlepiej czerwone, czyli te ostrzegawcze. Nim coś kupimy, weźmy głęboki oddech, przyjrzyjmy się dokładnie stronie sklepu, produktowi, sprawdźmy dane kontaktowe, czy ten „markt”, to nie przypadkiem „marкt” (к – to z cyrylicy) a może „markł” [1],[2]. Sprawdźmy jakie mamy formy płatności, czy sklep wymaga podania numeru karty bezpośrednio, czy może korzysta z pośredników płatności. Jeśli sklep przekierowuje na portal płatności, to ten portal też sprawdźmy [3]. Strona wygląda w porządku (czytaj OK), to sprawdź dokładnie produkt – czy to artykuł nowy, czy niewybrakowany (zwłaszcza jeśli to produkt „outletowy”), czy materiały, z których jest wykonany są właściwe, sprawdź dane dotyczące rozmiaru (np. biżuterię w doskonałej cenie, świetnie wyglądającą na zdjęciu w rzeczywistości trzeba będzie oglądać pod lupą, a za to zegarek nie zmieści się na zgrabnym nadgarstku).

Karty kredytowe nie wytrzymują już świątecznych zakupów, a musimy skorzystać z promocji – ergo potrzebujemy pożyczki. Jeśli naprawdę musimy coś kupić na kredyt, to skorzystajmy z oferty naszego banku, logując się do niego w tradycyjny sposób, ewentualnie, jeśli kupujemy w sklepie dużej, znanej sieci z ich ofert ratalnych. Nie korzystajmy z usług niezweryfikowanych firm, e-mail z linkiem do oferty pożyczki, to z dużym prawdopodobieństwem jest phishing.

Pamiętajmy, także że kupując bezpośrednio ze sklepów poza Unią Europejską jesteśmy zwykle słabiej chronieni. Wprawdzie „zgodnie z unijnymi przepisami prawa europejskich konsumentów, chronione są zazwyczaj również w przypadku zakupów u sprzedawców internetowych spoza UE. Jednak w takich sytuacjach dochodzenie swoich praw może okazać się trudniejsze.[4]

Jeśli drogi czytelniku nadal zastanawiasz się nad dobrym, bezpiecznym prezentem to rozważ zakup klucza (a najlepiej dwóch kluczy) bezpieczeństwa U2F (uwaga lokowanie produktu). [5]

Zdrowych, Bezpiecznych i Wesołych Świąt
oraz bogatego Gwiazdora
(w Poznaniu św. Mikołaj już był 😉 )

[1] https://www.gov.pl/web/baza-wiedzy/uwaga-csirt-knf-ostrzega-przed-falszywymi-stronami-serwisow-streamingowych

[2] https://www.wirtualnemedia.pl/artykul/ataki-homograficzne-top-10-witryn-pod-ktore-najczesciej-podszywaja-sie-cyberprzestepcy-top-10

[3] https://zaufanatrzeciastrona.pl/post/podstawy-bezpieczenstwa-bezpieczne-zakupy-online-jak-rozpoznac-falszywa-bramke-platnosci/

[4] https://europa.eu/youreurope/citizens/consumers/shopping/contract-information/index_pl.htm

[5] https://www.pkobp.pl/klient-indywidualny/aplikacja-iko-ipko/bezpieczenstwo/logowanie-z-kluczem-bezpieczenstwa

Maciej Miłostan

Kategorie
#Technologie: Aktualności

Polskie maszyny w światowym TOP-ie

Po raz kolejny na liście TOP500, którą ogłoszono podczas zakończonej niedawno Konferencji SC (International Conference for High Performance Computing, Networking, Storage, and Analysis w Atlancie) znalazło się osiem maszyn z Polski, zajmując łącznie trzynastą pozycję wśród wszystkich sklasyfikowanych państw. Sprawdźmy szczegóły.

Na początek trochę historii. Projekt TOP500 został zapoczątkowany w 1993 roku w celu zapewnienia wiarygodnej podstawy do śledzenia trendów w systemach komputerowych o wysokiej wydajności. Ranking miejsc, w których pracuje 500 najpotężniejszych systemów komputerowych na świecie, publikowany jest na dwóch konferencjach naukowych: w czerwcu na ISC High Performance oraz w listopadzie na The International Conference for High Performance Computing, Networking, Storage and Analysis, czyli Supercomputingu. Lista zawiera wiele szczegółowych informacji, w tym specyfikację systemu i główne obszary jego zastosowań.

Bezkonkurencyjne w tym obszarze od lat były dwa światowe mocarstwa – Stany Zjednoczone i Chińska Republika Ludowa. Ostatnio trend ten zaczął się wyraźnie zmieniać i to USA rozpoczęło samotne królowanie we wszystkich rankingach. Świadczy o tym fakt, że na najnowszej liście umieszczono aż 172 amerykańskie systemy, w tym trzy na pierwszych trzech miejscach. Najpotężniejszą maszyną obliczeniową świata jest El Capitan, którego wydajność wynosi 2,055.72 petaflopów. Na drugim miejscu znajduje się Frontier o wydajności 1,980.01 Pflop/s, na trzecim zaś Aurora (1,980.01 Pflop/s).

A jak na tym tle wypadają polskie maszyny? W listopadowym rankingu znalazło się 8 superkomputerów z Polski, które łącznie zajmują trzynastą pozycję wśród wszystkich sklasyfikowanych państw, zarówno pod względem liczby maszyn, jak i mocy obliczeniowej:

  • pozycja 69.Helios GPU (30,44 PFLOPS), Akademickie Centrum Komputerowe Cyfronet AGH,
  • pozycja 93.Proxima (23,32 PFLOPS), Poznańskie Centrum Superkomputerowo‑Sieciowe afiliowane przy Instytucie Chemii Bioorganicznej Polskiej Akademii Nauk,
  • pozycja 99. – Lem (20,37 PFLOPS), Wrocławskie Centrum Sieciowo-Superkomputerowe (Politechnika Wrocławska),
  • pozycja 185.Kraken-Fregata (10,02 PFLOPS), Centrum Informatyczne Trójmiejskiej Akademickiej Sieci Komputerowej (Politechnika Gdańska),
  • pozycja 211.Athena (7,71 PFLOPS), Akademickie Centrum Komputerowe Cyfronet AGH,
  • pozycja 291. – Altair (5,88 PFLOPS), Poznańskie Centrum Superkomputerowo‑Sieciowe afiliowane przy Instytucie Chemii Bioorganicznej Polskiej Akademii Nauk,
  • pozycja 347.Helios CPU (3,35 PFLOPS), Akademickie Centrum Komputerowe Cyfronet AGH,
  • pozycja 489.Ares (3,51 PFLOPS), Akademickie Centrum Komputerowe Cyfronet AGH.

Wysokie pozycje polskich komputerów odnotowano także na innych prestiżowych listach; na Green500 – ranking najbardziej energooszczędnych superkomputerów na świecie – wysoką 7. pozycję zajął Helios GPU z Akademickiego Centrum Komputerowe Cyfronet AGH, natomiast na liście IO500 – najszybszych systemów przechowywania danych na świecie – pozycję 10. zajął system przechowywania danych PCSS dla klastra Proxima.

Najszybszym superkomputerem europejskim, sklasyfikowanym na piątym miejscu, został superkomputer HPC6 zainstalowany we Włoszech. Trzy lokaty niżej znalazł się superkomputer LUMI z Finlandii, do którego polscy naukowcy mogą uzyskać dostęp za pośrednictwem infrastruktury PLGrid.

Pełne listy rankingowe dostępne są poniżej:

Agnieszka Wylegała

Kategorie
#Technologie: Aktualności

PIONIER-owe rozwiązania w ramach Strategii Cyfryzacji Polski

W ostatnich latach cyfryzacja przestaje być postrzegana jako odrębny obszar działalności państwa czy sektor gospodarki. Coraz częściej dostrzegany jest jej horyzontalny charakter, oddziałujący na niemal wszystkie obszary funkcjonowania społeczeństwa, państwa i gospodarki. I taki właśnie charakter – ponadsektorowy – ma przybrać Strategia Cyfryzacji Państwa, w ramach której podpisano w Krakowie i Poznaniu umowy wsparcia w rozwijaniu najnowszych technologii.

Wyzwania stojące przed Polską w obszarach konkurencyjności gospodarki, demografii, bezpieczeństwa państwa i jego obywateli czy zdrowia sprawiają, że intensywne inwestowanie w cyfryzację w wielu obszarach przestaje być kwestią wyboru. Staje się koniecznością, bez której pozycja naszego kraju wyraźnie osłabnie. Jeśli jednak cyfryzacji zostanie nadany odpowiadający jej znaczeniu priorytet, zyskają nie tylko poszczególni obywatele i obywatelki – których jakość życia się poprawi – ale i Polska jako całość – powiedział podczas prezentacji  Strategii wicepremier i minister cyfryzacji Krzysztof Gawkowski.

Polska strategia wpisuje się zatem w rosnące znaczenie cyfryzacji, która jest priorytetem Unii Europejskiej. Plan na kolejne 10 lat obejmuje każdą sferę funkcjonowania państwa oraz przedsiębiorstw.

W realizację planów Strategii włączył się także PIONIER, który od ponad 20 lat stanowi forpocztę zmian w dziedzinie cyfryzacji i informatyzacji społeczeństwa, zapewniając dostęp do e-Infrastruktury i usług na światowym poziomie.

Pod koniec października podpisano umowy na wsparcie w ramach Strategii. W ramach jednej z nich rozpocznie się realizacja projektu budowy fabryki sztucznej inteligencji, która powstanie poprzez rozbudowę zasobów w Akademickim Centrum Komputerowym Cyfronet AGH. Krakowski superkomputer zostanie wzmocniony w znaczne zasoby mocy obliczeniowej, by z czasem dołączyć do europejskiego ekosystemu sztucznej inteligencji. Będzie to projekt współfinansowany przez Komisję Europejską.

W Poznańskim Centrum Superkomputerowo-Sieciowym wsparte zostanie natomiast tworzenie nowoczesnych programów edukacyjnych i szkoleń, które przygotują specjalistów do pracy z komputerami kwantowymi. Dotacja zostanie przyznana do końca 2025 roku i ma na celu zwiększenie kompetencji cyfrowych w obszarze inżynierii kwantowej.

Warto wspomnieć, że w lipcu 2024 roku Ministerstwo Cyfryzacji ogłosiło współfinansowanie zakupu pierwszego komputera kwantowego dla Polski – EuroQCS-Poland. Komputer zostanie zainstalowany w PCSS i rozpocznie działalność w połowie 2025 roku. Będzie dostępny dla naukowców, przemysłu oraz sektora publicznego z całej Europy, co umożliwi prowadzenie badań i zastosowanie technologii kwantowych na szeroką skalę.

Agnieszka Wylegała