Kategorie
#Technologie: Aktualności

Sztuczna inteligencja a bezpieczeństwo

Powszechna fascynacja udostępnioną technologią spowodowała, że użytkownicy zaczęli znajdować coraz to nowe zastosowania dla ChatGPT. Jednakże prowadząc konwersację ze sztuczną inteligencją, na fali powszechnej euforii, nie wszyscy zastanawiali się, co będzie się działo z danymi, które w trakcie „rozmowy” wprowadzą do systemu. W szczególności, czy i jak system te dane wykorzysta. W efekcie, system został zasilony fragmentami poufnych kodów czy dokumentów do użytku wewnętrznego. Co istotne, fragmenty tych dokumentów mogą się pojawić w odpowiedziach na zapytania innych użytkowników. Problem ten dobrze obrazuje wyciek danych Samsunga[1], który nastąpił zaledwie 20 dni po tym jak korporacja zniosła zakaz korzystania przez pracowników z ChatGPT. Zakaz był uprzednio wprowadzony właśnie po to, by chronić firmowe dane. Notabene, na początku maja zakaz w Samsungu został przywrócony. Pamiętajmy, aby chronić nasze dane. Ponadto, korzystając z modeli sztucznej inteligencji weźmy pod uwagę, że wykorzystywane do stworzenia modeli dane wejściowe, przykłady uczące, nie są idealne i mogą być stronnicze (ang. bias), co przekłada się na generowane odpowiedzi. Nie dajmy się zmanipulować.

[1] https://cybernews.com/news/chatgpt-samsung-data-leak/

Narzędzia takie jak ChatGPT są bez wątpienia bardzo użyteczne i otwierają nowe perspektywy w zakresie tworzenia treści czy identyfikacji znanych rozwiązań, ale otwierają też nowe pola do nadużyć. Przy czym nie mam tu na myśli automatycznego pisania prac zaliczeniowych czy znajdowania odpowiedzi do testów on-line, ale wykorzystanie sztucznej inteligencji do prowadzenia kampanii dezinformacyjnych czy ataków spersonalizowanych. Dzięki sztucznej inteligencji personalizacja ataku może zostać dokonana w sposób co najmniej półautomatyczny. Firma OpenAI jest świadoma potencjalnych nadużyć i wspólnie ze środowiskami akademickimi stara się informować o zagrożeniach wynikających z dostępności zaawansowanych modeli językowych i próbuje proponować środki zaradcze. Zachęcam do zapoznania się z raportem podejmującym tę tematykę opublikowanym na stronie OpenAI.[1]

Korzystając z serwisów on-line, a w szczególności je tworząc, warto pamiętać o stosowaniu klasycznych zabezpieczeń IT i należytym testowaniu wdrażanych rozwiązań. Niestety, w tym zakresie dostawca ChatGPT poległ – zaledwie parę miesięcy po udostępnieniu portalu doszło do wycieku danych części użytkowników, w tym danych kart kredytowych.[2] Trzeba przyznać, że firma podeszła do problemu w sposób możliwie transparentny i otwarcie poinformowała o incydencie. Sztuczna inteligencja na ten moment sama nie wdroży dobrych praktyk.

Wśród wielu pomysłów na wykorzystanie modeli językowych pojawiły się również koncepcje automatycznego generowania kodu lub poprawiania kodu. Jedną z takich platform jest Codex[3] zintegrowany również z GitHub-em jako Copilot[4], czyli system, który biorąc pod uwagę kontekst przedstawionego kodu proponuje jego uzupełnienia. Codex potrafi też generować nowy kod na podstawie opisu w języku naturalnym. Czy taki kod jest równie bezpieczny jak napisany przez doświadczonego programistę? M.in. na to pytanie odpowiada praca przygotowana przez naukowców ze Stanford.[5] Odpowiedź niestety nie jest pozytywna – z przeprowadzonego eksperymentu wynika, że osoby korzystające z mechanizmów wspomagających pisały znacząco mniej bezpieczny kod, jednocześnie mając wyższe poczucie, że piszą dobry (bardziej bezpieczny) kod niż osoby, które ze wsparcia nie korzystały. Wniosek jest taki, że z systemów wspomagających powinni korzystać przede wszystkim doświadczeni programiści, którzy są w stanie ocenić czy zaproponowany kod jest zgodny z najlepszymi praktykami bezpiecznego kodowania. Mimo pewnych mankamentów, systemy wspomagające programowanie, jeśli właściwe zastosowane, potrafią zwiększyć produktywność programistów, a tym samym obniżyć czas implementacji nowych systemów. Przy okazji warto zauważyć, że jakość generowanego kodu jest zależna od danych, które algorytmy uczenia dostały na wejściu.

Co ciekawe sztuczną inteligencję można wykorzystać także do generacji kodów umożliwiających przeprowadzanie ataków (tzw. eksploitów). Twórcy modeli starają się wprawdzie zabezpieczyć systemy przed tego typu zapytaniami, ale użytkownicy znajdują nowe sposoby na hakowanie sztucznej inteligencji i omijanie mechanizmów ochronnych.[6],[7] Ominięcie mechanizmów ochronnych pozwala także na automatyczne generowanie treści obraźliwych.

W niektórych systemach, w celu ułatwienia interakcji z aplikacją, wykorzystuje się biblioteki konwertujące zapytania w języku naturalnym na wykorzystywany w silnikach baz danych język SQL. Grupa badaczy przeprowadziła testy popularnych bibliotek wykorzystujących modele typu text-to-sql i w efekcie znalazła podatności umożliwiające wygenerowanie złośliwych zapytań, które mogą doprowadzić do nieautoryzowanego dostępu do danych lub odmowy usługi.[8],[9]

Ataki na sztuczną inteligencję (ang. adversarial attacks) w ogóle, nie tylko na modele językowe, stanowią poważny problem. Problem ten jest szczególnie widoczny w przypadku systemów samochodów autonomicznych – czasem wystarczy przyklejenie na znaku odpowiednio spreparowanej naklejki, aby wprowadzić w błąd systemy wspomagania jazdy, powodując np. pomylenie znaku ograniczenia prędkości ze znakiem stop.[10]

Warto zauważyć, że część systemów sztucznej inteligencji nadaje się wprost do wykorzystania w działalności przestępczej. Techniki umożliwiające wygenerowanie sfałszowanego filmu z twarzą wybranej osoby lub podrobienie wypowiedzi są szeroko dostępne i ich zastosowanie nie wymaga aktualnie poniesienia dużych nakładów finansowych. Interesujące przedstawienie problematyki tzw. Deepfakes zawarto w pracy autorstwa Olgi i Sergiusza Wasiutów.[11] Deepfake mogą być szczególnie groźne, jeśli zostaną wykorzystane w atakach sponsorowanych przez rządy państw np. w celu destabilizacji sytuacji geopolitycznej.

Niebezpieczeństwa związane z upowszechnieniem sztucznej inteligencji zauważają także organy ścigania – dobrym punktem odniesienia są tu dwie publikacje wydane przez Europol[12],[13], publikacja wydana w br. dotyczy ChatGPT a ubiegłoroczna Deepfakes. Obie technologie świetnie się nadają do wspomagania ataków socjotechnicznych – ataki „na wnuczka” mogą w najbliższych latach przybrać nowy wymiar.

Z drugiej strony sztuczna inteligencja, a zwłaszcza techniki analizy obrazów, mogą przyczynić się do podniesienia bezpieczeństwa w przestrzeniach publicznych np. w oparciu o systemy monitoringu wizyjnego. Algorytmy sztucznej inteligencji mogą zostać tu wykorzystane do identyfikacji w czasie rzeczywistym podejrzanych osób lub zachowań. W tej materii trwa dyskusja pomiędzy obrońcami prywatności, a zwolennikami zapewniania bezpieczeństwa publicznego niemal za wszelką cenę. Należy odnotować, że pierwszym krajem w Europie, w którym dopuszczono wspomagane przez AI techniki monitoringu jest Francja. W marcu br. została przyjęta stosowana ustawa[14], a 17 maja Trybunał Konstytucyjny potwierdzi jej zgodność z konstytucją.[15] W argumentacji za przyjęciem ustawy szczególnie podkreślano aspekt zabezpieczenia igrzysk olimpijskich w 2024 roku. Co ciekawe, Francja swoją decyzją wyprzedziła pracę nad legislacjami na forum Parlamentu Europejskiego.[16],[17],[18] Decyzję czy jechać do Francji na olimpiadę każdy musi podjąć sam. Monitoring wizyjny w połączeniu z AI może dać rządzącym niespotykane do tej pory możliwości inwigilacji.

Akty prawne regulujące pewne obszary zastosowań metod sztucznej inteligencji z pewnością powinny powstać, ale należy unikać prób nadmiernej ingerencji w rozwój technologii, jednocześnie zapewniając ochronę swobód obywatelskich. Większość ekspertów jest zgodna, że w centrum wszystkich regulacji powinien stać interes każdego człowieka – regulacje powinny być tworzone w duchu humanizmu. Publikacją szczególnie wartą odnotowania jest whitepaper wydany 1 maja br. przez IBM-a.[19] W dokumencie adresowanym do decydentów przedstawiono zwięzłą prezentację potencjału sztucznej inteligencji oraz założenia, którymi wg. IBM-a warto się kierować przy tworzeniu nowych legislacji. Ramy legislacyjne dla systemów sztucznej inteligencji powinny bazować na ocenach ryzyka. W dokumencie przywołano projekty trzech regulacji opracowywanych niezależnie przez UE, Stany Zjednoczone Ameryki Płónocnej (zalecenia NIST) oraz Singapur. W dokumencie nie wymieniono natomiast zaleceń opublikowanych przez brytyjskie ICO.[20]

Przedstawione do tej pory problemy, to tak naprawdę wierzchołek góry lodowej – najgroźniejsze są te zagrożenia, których jeszcze nie zidentyfikowano i o tym należy również pamiętać formułując ramy prawne.

[1] https://openai.com/research/forecasting-misuse

[2] https://openai.com/blog/march-20-chatgpt-outage

[3] https://openai.com/blog/openai-codex

[4] https://github.com/features/copilot/

[5] https://arxiv.org/abs/2211.03622

[6] https://systemweakness.com/using-chatgpt-to-write-exploits-4ac7119977

[7] https://www.wired.com/story/chatgpt-jailbreak-generative-ai-hacking/

[8] https://arxiv.org/abs/2211.15363

[9] https://thehackernews.com/2023/01/new-study-uncovers-text-to-sql-model.html

[10] https://adversarial-learning.princeton.edu/darts/

[11] https://studiadesecuritate.up.krakow.pl/wp-content/uploads/sites/43/2019/10/2-1.pdf

[12]https://www.europol.europa.eu/publications-events/publications/chatgpt-impact-of-large-language-models-law-enforcement

[13] https://www.europol.europa.eu/media-press/newsroom/news/europol-report-finds-deepfake-technology-could-become-staple-tool-for-organised-crime

[14] https://www.reuters.com/technology/france-looks-ai-powered-surveillance-secure-olympics-2023-03-23/

[15] https://www.conseil-constitutionnel.fr/actualites/loi-relative-aux-jeux-olympiques-et-paralympiques-de-2024-et-portant-diverses-autres-dispositions

[16] https://www.europarl.europa.eu/news/pl/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificial-intelligence

[17] https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206

[18] https://artificialintelligenceact.eu/

[19] https://newsroom.ibm.com/Whitepaper-A-Policymakers-Guide-to-Foundation-Models

[20] https://ico.org.uk/for-organisations/guide-to-data-protection/key-dp-themes/guidance-on-ai-and-data-protection/

Maciej Miłostan

Kategorie
#Technologie: Aktualności

Podróż do źródeł czasu. Zegary i synchronizacja w sieci PIONIER i nie tylko

Pokuśmy się o krótkie rozważanie czym jest czas. Dla istot żywych jest to w zasadzie pewne złudzenie, pewne odczucie, pewna intuicja związana z obserwacją zmian w przestrzeni i możliwością określenia kolejności zdarzeń, czyli kolejności zmian stanów przestrzeni. Choć w tym zawężonym sensie można powiedzieć, że czas sam w sobie nie istnieje, to obserwując zmiany w przestrzeni odczuwamy upływ czasu. W celu znormalizowania szybkości jego upływu możemy przykładowo umówić się z innymi istotami na wielkość fizyczną czasu poprzez zdefiniowanie odstępów pomiędzy pewnymi zdarzeniami, których kolejność jesteśmy w stanie rozróżniać.

Nie mam czasu

Czas i przestrzeń są ze sobą powiązane przez prędkość propagacji fal w rozważanym układzie. Fale dobrze nadają się do rozróżniania i układania kolejności zdarzeń, bo mogą one zostać wyemitowane, odbite, zaabsorbowane (odebrane), rozproszone w przestrzeni. W zależności od przyjętego modelu mogą być to np.: fale elektromagnetyczne, akustyczne, grawitacyjne. Częstotliwość, prędkość, pęd, moc, energia są wielkościami, których wyznaczenie może opierać się na wyznaczaniu zmiany częstotliwości lub pomiaru czasu jaki upłynął między pewnymi zdarzeniami. Przykładowo, zmiana częstotliwości emitowanych fotonów lub mikrofal może świadczyć o zmianach pewnych poziomów energetycznych. Możemy mierzyć odchylenia częstotliwości albo możemy mierzyć bezpośrednio czas, jak upłynął od wysłania gdzieś krótkiego sygnału do jego powrotu i w ten sposób wyznaczać odległości, prędkości, a także śledzić ich zmiany.

Prawda czasu i prawda ekranu

Im większej precyzji potrzebujemy w wyznaczeniu wspomnianych parametrów układu, tym lepszymi zegarami musimy dysponować. Przykładowo, wiemy, że Księżyc oddala się od Ziemi o ok. 3,78 cm rocznie. Biorąc pod uwagę jego odległość od Ziemi (ok. 384.000 km), uzyskanie takiej precyzji przez naukowców i inżynierów jest imponujące. Wzorzec częstotliwości jest kluczowym elementem w wielu badaniach naukowych w dziedzinach takich jak właśnie pomiary odległości i prędkości, pomiary okresów obrotów, pomiary fal grawitacyjnych, pomiary częstotliwości kosmicznych źródeł pól elektromagnetycznych i w wielu innych dziedzinach takich jak spektroskopia lub geodezja. Stabilnych źródeł potrzebuje też radioastronomia, np. ośrodek i obserwatorium w Piwnicach pod Toruniem. Im stabilniejsze jest nasze źródło, tym stabilniejsze w czasie sygnały jesteśmy w stanie rozróżniać i badać.

Nie tylko nauka potrzebuje dobrych zegarów. Potrzebuje ich również telekomunikacja, zwłaszcza radiokomunikacja, od sieci radiofonicznych i telewizyjnych począwszy, aż po operatorów 5G. Pokażę to na przykładzie telewizji cyfrowej w standardzie DVB-T/T2. Otóż, stosuje się tam tzw. sieci jednoczęstotliwościowe, których praca polega na tym, że kilka nadajników w obrębie np. tego samego województwa nadaje dokładnie ten sam sygnał na tej samej częstotliwości. Dekoder widzi sumę tych sygnałów, które docierają oczywiście z różnymi opóźnieniami i z różnymi poziomami do anteny. Żeby mógł on uczynić użytek z takiej sumy i żeby kopie tych sygnałów nie stanowiły wzajemnych zakłóceń, wszystkie one powinny być synchroniczne, a odchyłki częstotliwości i różnice w czasach dotarcia odpowiednio małe.

Przepraszam, która godzina?

Dziś do precyzyjnego wyznaczania czasu służą zegary atomowe. Choć są to skomplikowane urządzenia, nie wyświetlają aktualnej daty i godziny. Może się to wydawać zaskakujące, ale nie są do tego przeznaczone. Nie będzie tu ani wskazania czasu lokalnego, ani nawet czasu uzgodnionego międzynarodowo, tzw. czasu (UTC, ang. Universal Time Coordinated), czyli daty i godziny wyliczanej na podstawie wskazań wielu zegarów atomowych z całego świata.

Jako ciekawostkę dodać można, że czas UTC uwzględnia tzw. sekundę przestępną, która jest co jakiś czas dodawana w związku ze zmianami okresów obrotów Ziemi wokół własnej osi i jej spowalnianiem. Tak, niektóre minuty w naszym życiu miały 61 sekund, ostatnia taka była 31 grudnia 2016 r. Docelowo dodawania tej sekundy zostanie prawdopodobnie zaniechane, a dyskusja na ten temat trwa już wiele lat.

Zegary atomowe natomiast mają tylko jedno zadanie: mają być stabilnym wzorcem częstotliwości, najczęściej w postaci sinusoidalnego sygnału elektrycznego o częstotliwości 10MHz. Dodatkowo, niektóre zegary i systemy generują jeszcze sygnał 1PPS składający się z krótkich impulsów nadawanych co sekundę (ang. pulse per second). Niektóre zegary są optyczne, tzn. ich produktem jest określona stabilna długość fali optycznej. Dopiero na podstawie tych okresowych sygnałów z zegarów atomowych można dokonać tzw. realizacji czasu UTC, czyli nadać tym upływającym kolejnym okresom znaczenie w postaci uzgodnionej daty i godziny.

W Polsce przykładowo dysponujemy dwiema ważnymi realizacjami lokalnymi czasu UTC. Jest to realizacja urzędowa UTC(PL) wykonywana przez Główny Urząd Miar, jak i UTC(AOS) wykonywana przez laboratorium PAN w Borówcu. Zgodność z czasem UTC można stwierdzić post factum po czasie ok. półtora miesiąca, nie istnieje bowiem żadna uzgodniona międzynarodowo bieżąca realizacja czasu UTC. Wydaje się, że osoby, które zajmują się wzorcami czasu muszą mieć anielską cierpliwość, bo jak tu porównać ze sobą zegary, które spóźniają się np. o sekundę na miliard lat? Na szczęście nie musimy czekać, aż upłynie pełna sekunda odchylenia. Zbudowano specjalne urządzenia i systemy porównywania sygnałów odniesienia i ich uchybu częstotliwości, które oferują wynik w czasie od kilku minut do kilku tygodni, w zależności od zastosowania i oczekiwanej precyzji. Zmierzone post factum odchyłki UTC(PL) od UTC mieszczą się w granicach kilku nanosekund.

Do dystrybucji danej realizacji czasu UTC do użytkowników końcowych mogą służyć różne systemy. Czas w postaci daty i godziny często jest przesyłany w Internecie za pomocą NTP (ang. Network Time Protocol). W ten sposób synchronizują się nasze telefony i komputery automatycznie.

Zapewne wielu z czytelników kojarzy też zegary ścienne sterowane radiem, zazwyczaj sygnałem DCF77 nadawanym na falach długich (77,5 kHz) spod Frankfurtu nad Menem. Oprócz daty i godziny zakodowanych w sygnale, sama fala nośna też jest stabilna. Choć do celów domowych albo w automatyce przemysłowej jest to rozwiązanie działające doskonale, tak do celów naukowych i wymagających zastosowań technicznych ten sygnał nie jest zbyt dobry, podobnie jak inne nadawane radiowo wzorce częstotliwości, jak np. rosyjski RWM spod Moskwy, czy chiński BPM spod Pucheng w prowincji Fujian. Owszem, są to sygnały długookresowo stabilne, ale w krótkich okresach występują różne zakłócenia i dryft fazy nadawanej sinusoidy, jak i szereg efektów związanych z propagacją w atmosferze ziemskiej. Najlepsze rezultaty dają tutaj łącza światłowodowe, stąd udział Konsorcjum PIONIER w transmisji czasu jest czymś naturalnym.

Dajcie mi więcej czasu

W XX wieku nastąpił gwałtowny rozwój w budowie precyzyjnych źródeł częstotliwości.

Obecnie dysponujemy w zasadzie następującymi precyzyjnymi źródłami, które uszeregowałem według precyzji od najmniejszej do największej:

  • pojedyncze zegary kwarcowe, farmy kwarcowe (wiele oscylatorów kwarcowych z uśrednianiem fazy) lub zegary kwarcowe umieszczone w środowisku o stabilizowanej temperaturze lub zegary z kompensacją temperatury – używane są tam, gdzie jest potrzebna stabilność krótkookresowa lub istotna jest stosunkowo mała cena i rozmiar urządzeń, np.: w miernikach laboratoryjnych, urządzeniach telekomunikacyjnych lub jako komponenty do sterowania zegarami atomowymi,
  • wzorzec atomowy rubidowy – w urządzeniach telekomunikacyjnych, w których ważna jest umiarkowana cena i do tego niewielki rozmiar, ale wymagana jest lepsza stabilność niż zegarów kwarcowych, np. wojskowe stacje radiolokacyjne, wcześniej również satelity były wyposażane w takie zegary, obecnie dzięki miniaturyzacji i stosunkowo niskiej cenie, pasjonaci tacy jak krótkofalowcy albo audiofile używają ich jako odniesienia w swoich domowych instalacjach,
  • wzorzec atomowy cezowy – do synchronizacji całych sieci telekomunikacyjnych jako główny zegar w dużych systemach,
  • maser wodorowy – pasywny i aktywny – używany przez centralne agencje rządowe, np. krajowa realizacja czasu urzędowego UTC(PL) opiera się na maserze aktywnym.

Należy tu przy okazji wymienić fontannę cezową, która jest urządzeniem służącym do korygowania masera wodorowego. Fontanna sprawdza, czy doprowadzony z masera sygnał jest zgodny z definicją sekundy w układzie SI. Tak pozyskana informacja może posłużyć do oceny jakości masera, a pomiar taki zajmuje do kilku tygodni.

Inną kategorią są systemy synchronizacji oparte o czas generowany przez kogoś innego, np. pobierające czas satelitarny z systemów takich jak GPS, Galileo, Glonass – zastosowaniami to będą głównie pomiary terenowe, w tym eksperymenty naukowe z rozproszoną aparaturą naukową (przykładowo projekt LOFAR), pomiary geodezyjne, a także komercyjne serwerownie, stacje radiowe i telewizyjne i ich wozy transmisyjne. Istnieją też urządzenia, które odbierają odniesienie z wielu satelitów wielu systemów i na tej podstawie wyliczają pewną średnią fazę lokalnego oscylatora kwarcowego.

Zasada działania klasycznego zegara atomowego jest prosta do zrozumienia, choć sama implementacja to już wyżyny techniki, zwłaszcza elektroniki. Choć zegary różnią się znacznie użytymi pierwiastkami, częstotliwościami oraz tym jak atomy są wzbudzone, pewne cechy pozostają wspólne. Otóż wyobraźmy sobie, że mamy szklane naczynie z jakimś określonym pierwiastkiem, np. rubidem. Nazwijmy to naczynie lampą, bo ten rubid w środku świeci pięknie na różowo, a nas w zasadzie interesują opary wzbudzonego rubidu. Podgrzewamy i wzbudzamy atomy do pewnych określonych i znanych stanów energetycznych. Wiemy, że atomy rubidu w określonym stanie energetycznym zmieniają ten stan na inny pod wypływem fal elektromagnetycznych o znanej częstotliwości. Ponieważ jest to efekt kwantowy, to ta częstotliwość jest stała i nie zależy (do pewnego stopnia) od takich parametrów, jak wielkość urządzenia, czyli precyzja jego wykonania, temperatura otoczenia, itd. Dalej, w zegarze mamy sterowane źródło przebiegu okresowego, czyli poprzez zmiany napięcia sterującego możemy zwiększać lub zmniejszać częstotliwość przebiegu. Generalnie, to źródło ze względów technicznych ma dość niską częstotliwość, więc potrzebujemy kilku powielaczy częstotliwości, żeby ją podnieść o kilka rzędów wielkości, żeby wejść w zakres, w którym interesująco się zachowują dla nas atomy rubidu. Kierujemy wiązkę fal o tej podwyższonej, ale sterowanej częstotliwości i odpowiednio dobranej mocy na lampę z oparami rubidu. Jeśli atomy te zaczynają reagować na padające fale, np. zaczynają je absorbować, możemy ten stan wychwycić, np. obserwując drobny spadek intensywności światła lampy. I gotowe, mamy stan wstrojenia się w pożądaną częstotliwość. Ten stan trzeba osiągać powoli, stopniowo przemiatając częstotliwości w pobliżu optimum, a potem delikatnie i powoli sterować, żeby się nie zanadto nie odstroić. Pozostaje tylko poprzez układy dopasowujące wygenerować sygnał 10MHz, który będzie synchroniczny z sygnałem z naszego sterowanego źródła częstotliwości.

Zegar rubidowy należy do najstarszych zegarów atomowych. Trudniejsze do skonstruowania, ze względu na wyższe częstotliwości były zegary cezowe, kolejnym etapem rozwoju były masery wodorowe i fontanny cezowe. W uproszczeniu, aktywny maser wodorowy działa w takich sposób, że atomy wodoru zmieniając stan energetyczny generują pole elektromagnetyczne o określonej częstotliwości, które jest wzmacniane za pomocą wnęki rezonansowej, w której atomy się znajdują. W maserach aktywnych na wyjściu jest oscylator kwarcowy, który jest stabilizowany przez maser w długim okresie.

PIONIERzy czasu

Wiele instytucji naukowych i technicznych potrzebuje wysokostabilnych źródeł odniesienia, ale utrzymywanie przez nie własnego zegara atomowego, zwłaszcza aktywnego masera wodorowego, jest kosztowne i wymaga wysokich, specjalistycznych kwalifikacji. Dlatego obserwuje się dziś trend, w którym instytucje poszukują możliwości podłączenia się do dobrych źródeł synchronizacji, lepszych od tańszych wzorców rubidowych, ale jednocześnie bez konieczności zakupów sprzętu.

Tu pojawia się duża szansa dla Konsorcjum PIONIER. Naszym celem jest taka dystrybucja sygnałów czasu w sieci światłowodowej PIONIER, aby uzyskać opóźnienie do kilkunastu pikosekund względem czasu dostępnego w GUM, a także, żeby to opóźnienie było stabilne. Chodzi nam zatem o to, by nie pogorszyć jakości zegara z powodu cech sieci PIONIER.

Główny Urząd Miar posiada aktywny maser wodorowy, z którego przekazuje PIONIERowi elektryczne sygnały 10MHz oraz 1PPS. Konsorcjum PIONIER jest odpowiedzialne za konwersję ich do postaci optycznej oraz dba o niepogorszenie parametrów sygnału na wyjściu z sieci PIONIER. Do transmisji z GUM jest użyte pojedyncze włókno światłowodowe oraz urządzenie stabilizujące sygnał, które kompensuje wpływ zmian opóźnienia w światłowodzie. Na wyjściu otrzymujemy kopię masera wodorowego z dokładnością do kilkudziesięciu pikosekund.

Innym przykładem wykorzystania sieci PIONIER do transmisji wzorcowej częstotliwości jest tzw. wzorcowa częstotliwość optyczna, w której uzyskujemy stabilną długość fali świetlnej w światłowodzie. Źródłem jest tzw. zegar optyczny na Uniwersytecie Mikołaja Kopernika w Toruniu, będący wysokostabilnym, wąskopasmowym laserem, którego światło jest przenoszone synchronicznie do wygodniejszego okna transmisyjnego światłowodu poprzez laser femtosekundowy.

W ramach Konsorcjum PIONIER budujemy system, w którym będziemy korygować odchyłki powstające w wyniku różnych efektów w światłowodach, m.in. związanych ze zmianami temperatury.  W ramach projektu PIONIER-LAB i laboratorium drugiego tego projektu, w MANach (będących konsorcjantami) budowane są tzw. repozytoria czasu. Do nich zostaną doprowadzone światłowodami sygnały 10MHz oraz 1 PPS, których źródłami będą zarówno GUM, jak i laboratorium w Borówcu. W tych MANach będą także zegary zapasowe na wypadek awarii połączenia światłowodowego z maserami. Te lokalne zegary będą rubidowe lub cezowe, decyzje zapadną wkrótce.

W planowanych repozytoriach czasu będą także serwery NTP do dystrybucji daty i godziny. Serwery te będą w dwóch kategorii – stratum 1 w MANach – jako serwery regionalne – oraz stratum 0 – jako serwer główny, który będzie podłączony do odniesienia w GUM.

Wzorce częstotliwości, jakie będą wkrótce dostępne w sieci PIONIER będą najwyższej jakości w Polsce. Stanowi to znaczny postęp względem lokalnych zegarów rubidowych lub cezowych. To duże ułatwienie dla instytucji, które nie będą musiały budować własnych systemów, a wystarczy, że skorzystają z repozytoriów czasu w MANach.

Marcin Dąbrowski

Kategorie
#Technologie: Aktualności

Géant w nowym rozdaniu

Dr inż. Cezary Mazurek, Pełnomocnik Dyrektora IChB PAN ds. PCSS, jest nieustająco zaangażowany w realizację kolejnych projektów GÉANT od roku 2009. Wówczas w projekcie GN3 objął funkcję lidera aktywności związanej z podnoszeniem wiarygodności oprogramowania i budowaniem w społeczności NREN trwałych kompetencji, w zakresie metodologii tworzenia oprogramowania wysokiej jakości. Obecnie pełni rolę koordynatora rozwoju oprogramowania na poziomie zarządzania projektem. Jest też członkiem GÉANT Programme Planning Committee.

Magdalena Baranowska-Szczepańska:  W pierwszych dniach lutego uczestniczył Pan Doktor w zjeździe kierownictwa projektu GN5-1, który odbył się w niderlandzkim Dordrechcie. Jakie najistotniejsze decyzje tam zapadły?

Cezary Mazurek: – Było to bardzo intensywne i bogate w informacje spotkanie. Wzięło w nim udział 75 osób pełniących w projekcie funkcje liderów pakietów roboczych, liderów zadań i koordynatorów. Poza prezentowanymi aspektami technicznymi i organizacyjnymi dla wielu uczestników ważne były również kwestie pozycji i roli projektu w programie Horyzont Europa. Nie dla wszystkich bowiem jest oczywiste, że GÉANT jest postrzegany przez Komisję Europejską jako ekosystem rozwijający się od e-infrastruktury do szerszej inicjatywy wsparcia wspólnej polityki dotyczącej danych. Jednym z najważniejszych wyzwań stojących przed tą edycją projektu jest to, aby wszystkie produkty i usługi projektu były zaprojektowane i opracowane w sposób efektywny oraz zgodny z krajowymi i międzynarodowymi przepisami dotyczącymi prywatności i praw autorskich. Stąd też na spotkaniu wprowadzono m.in. nowy, usprawniony proces zarządzania cyklem życia produktu (Product Lifecycle Management). Zwracano uwagę na właściwy sposób tworzenia i ponownego wykorzystania oprogramowania open source. Szczególny akcent położono na kwestie związane z prywatnością danych.

MBS: Poznańskie Centrum Superkomputerowo-Sieciowe pozostaje niezmiennie liderem w obszarze wsparcia rozwoju oprogramowania. Działania wspierające obejmują szereg aktywności i usług. Które z nich są najważniejsze i co planowane jest w 2023 roku?

CM: – Udział w pakiecie roboczym, dotyczącym zarządzania projektem (WP1) w roli koordynatora, wiąże się ze wsparciem koordynatora projektu w realizacji zadań na szczeblu całego konsorcjum, a jednocześnie z zapewnieniem widoczności efektów i znaczenia prac realizowanych przez PCSS na poziomie wszystkich liderów pakietów roboczych.

Głównym celem tych działań jest podnoszenie jakości oprogramowania powstającego w ramach projektu, przekrojowo we wszystkich aktywnościach. A konkretnie, do naszych aktywności i usług należą m.in. przeglądy kodu, szkolenia programistów, utrzymywanie i rozwój narzędzi programistycznych czy katalog oprogramowania. W tym roku planujemy wdrożyć rozwiązania kontenerowe w oparciu o Kubernetes/Gitlab oraz jeszcze bardziej zwiększyć użycie dobrych praktyk rozwoju oprogramowania w zespołach GÉANT – ze szczególnym nastawieniem na nowych członków zespołów programistycznych. Zadania te realizowane są w pakiecie roboczym “WP9 Wsparcie operacyjne”, gdzie liderem zadania “Software Governance and Support” jest Marcin Wolski. Na wrzesień mamy też do przygotowania raport z przeglądu wszystkich narzędzi software’owych wykorzystywanych w projekcie.

MBS:  W jakich innych aktywnościach projektu GÉANT sieć PIONIER odgrywa istotną rolę?

CM: – W obecnej edycji projektu zakres ten jest bardzo szeroki. Mamy w projekcie lidera całego pakietu roboczego dr Ivanę Golub. Kierowany przez Ivanę “Pakiet roboczy WP6 Rozwój Sieci” dotyczy rozwoju infrastruktury sieciowej, usług i narzędzi monitoringu – stanowi więc jeden z fundamentalnych pakietów zadaniowych projektu. Liderem zadania w tym pakiecie roboczym jest Roman Łapacz z Działu Sieci Nowych Generacji PCSS. Poza tym, w pakiecie “WP4 Above-the-Net Services” liderem zadania dotyczącego rozwoju nowych usług jest Bartosz Idzikowski z Działu Nowych Mediów. Ponadto w kilku strategicznych zadaniach takich jak Policy Engagement czy User and Stakeholder Engagement odpowiadamy za synergię projektu z innymi inicjatywami europejskimi, jak np. DestinE czy EuroHPC. Należy też jeszcze szczególnie podkreślić nasze zaangażowanie w postaci technologicznego partnerstwa przy organizacji, oprawie medialnej oraz transmisji corocznych konferencji The Networking Conference (TNC). Najbliższa odbędzie się w czerwcu w Tiranie.

Rozmawiała Magdalena Baranowska-Szczepańska

 

Kategorie
#Technologie: Aktualności

Wojna w Ukrainie – mija rok

Zacznijmy od kwestii zbrodni wojennych, których definicje można znaleźć w szeregu traktatów, deklaracji i konwencji, w szczególności Rzymskiego Statutu Międzynarodowego Trybunału Karnego i Konwencji Genewskich. Ostatnia z Konwencji Genewskich pochodzi z 1977 roku – wprawdzie w 2005 roku dodano do niej protokół dodatkowy, ale on dotyczy tylko kwestii przyjęcia dodatkowego znaku rozpoznawczego do oznaczania placówek medycznych. W roku 1977 infrastruktura krytyczna w niewielkim stopniu zależała od urządzeń cyfrowych, komputery nie były szeroko rozpowszechnione, nie istniał Internet. Innymi słowy rzeczywistość nie była tak bardzo cyfrowa jak dziś.

Aktualnie hybrydowe lub stricte komputerowe ataki na infrastrukturę krytyczną mogą prowadzić do tragicznych w skutkach awarii i uszkodzeń. Skuteczny cyberatak może doprowadzić do odcięcia dostaw wody, gazu, energii elektrycznej, czyli katastrofy humanitarnej na dużą skalę. Skutki ukierunkowanego cyberataku są porównywalne z atakiem konwencjonalnym. Czy zatem tego typu ataki mogą lub powinny być ścigane tak jak zbrodnie wojenne?  O prawne uregulowanie tej kwestii NATO i firmy technologiczne zabiegają od wielu lat – dość obszerne opracowania w tej tematyce zostały spisane jako tzw. Podręczniki Tallińskie[1]; pierwsza edycja tego dokumentu została wydana w 2013 roku, druga (2.0) w 2017, a obecnie zbierane są materiały do wersji 3.0. Dokument ten podchodzi do tematu bardzo kompleksowo, ale nie stanowi wiążącej wykładni. Istnieje zatem potrzeba, głośno artykułowana m.in. przez Microsoft[2], stworzenia Cyfrowej Konwencji Genewskiej. Wszystko wskazuje na to, że droga do uzgodnienia i przestrzegania takiej konwencji jest daleka. Czy zatem w obecnie obowiązującym kanonie można ścigać cyberataki jako zbrodnie? Formalny apel do Biura Prokuratorów Międzynarodowego Trybunał Karnego (ICC) o zajęcie się tą tematyką wystosowali w 2022 roku eksperci z Human Rights Center na Uniwersytecie Kalifornijskim w Berkeley[3],[4]. Wprawdzie w apelu wskazywano głównie ataki na Ukrainę z 2015 i 2016 roku, ale złożono go w kontekście trwającej wojny. Chodzi o zbieranie przez prokuratorów ICC dowodów zbrodni będących rezultatem cyberataku. Na wiążące decyzje Trybunału trzeba będzie poczekać. Dlaczego piszę o tym teraz? Dlatego, że do zgłoszenia formalnego pozwu do ICC szykuje się rząd Ukrainy[5]. Warto tu jednak zauważyć, że Rosja nie ratyfikowała Statutu Rzymskiego[6], ale zbrodnie są dokonywane na terenie Ukrainy, która uznała jurysdykcję ICC. Na dzień dzisiejszy trudno wyrokować jak te sprawy będą procedowane, ale warto wiedzieć, że kroki zmierzające do unormowania tych kwestii są podejmowane.

Przejdźmy do drugiej kwestii. Na początku lutego zespół CERT-UA oraz CSIRT MON[7],[8] poinformowały o wspólnej akcji, w której zidentyfikowano szereg stron wykorzystywanych do propagacji złośliwego oprogramowania. Strony te podszywały się m.in. pod witrynę Ministerstwa Spraw Zagranicznych Ukrainy oraz Polską Policję. Zainteresowanych odsyłam do ww. publikacji – znajdą tam Państwo dość szczegółowe informacje o sposobie działania grupy przestępczej i wykorzystanego oprogramowania.

Ostatnia kwestia to cyberataki na placówki NATO, które miały miejsce w trzecim tygodniu lutego. Agencje NATO w bardzo ograniczony sposób informują o atakach targetowanych na własną infrastrukturę, ale czasowa niedostępność stron niektórych agencji została odnotowana przez prasę – wg. doniesień medialnych były to ataki DDoS. Najszerszym echem odbiło się zakłócenie pracy sieci organizacji SAC, dostarczającej pomoc humanitarną do Turcji i Syrii; miała ona problemy z łącznością z jednym z samolotów.[1],[2] Ataki są przypisywane grupie Killnet.

[1] https://www.independent.co.uk/news/world/europe/turkey-syria-earthquake-russian-hackers-b2281278.html

[2] https://cyberdefence24.pl/cyberbezpieczenstwo/cyberatak-na-nato-rosyjska-grupa-zaklocila-pomoc-ofiarom-trzesienia-ziemi

 

[1] https://ccdcoe.org/research/tallinn-manual/

[2] https://www.microsoft.com/en-us/cybersecurity/content-hub/a-digital-geneva-convention-to-protect-cyberspace

[3] https://www.wired.com/story/cyber-war-crimes-sandworm-russia-ukraine/

[4] https://cepa.org/article/russian-cyberattacks-need-an-international-criminal-court-response/

[5] https://thehill.com/policy/cybersecurity/3833793-ukraine-enters-uncharted-territory-with-request-to-investigate-russian-cyberattacks-as-war-crimes/

[6] https://demagog.org.pl/analizy_i_raporty/inwazja-rosji-na-ukraine-czy-rosja-odpowie-za-zbrodnie-wojenne/

[7] https://cert.gov.ua/article/3761104

[8] https://cyberdefence24.pl/armia-i-sluzby/walka-z-phishingiem-polska-i-ukraina-polaczyly-sily

Maciej Miłostan

Kategorie
#Technologie: Aktualności

Pomocna dłoń

Ataki rakietowe na infrastrukturę cywilną i związane z nimi przerwy w dostawach energii są obecnie częścią codziennego życia w Ukrainie. Agregaty prądotwórcze są niezbędne do zapewnienia ciągłości funkcjonowania zarządzanej przez URAN sieci; istotnie wpływają też na polepszenie warunków życia samych pracowników URAN.

Za środki przekazane przez Europejskie Sieci Naukowo-Badawcze (NREN), za pośrednictwem fundacji Vietsch („Vietsch Foundation”) przy udziale ALMA S.A. jako partnera komercyjnego, wybraliśmy i zorganizowaliśmy zakup dwóch agregatów prądotwórczych: mobilnego zainstalowanego na przyczepce samochodowej do zasilania węzłów sieci URAN oraz mniejszego agregatu (2 kW) do codziennego użytku. Dodatkowo przekazaliśmy materiały eksploatacyjne.

Pracownicy operatora sieci PIONIER brali bezpośredni udział w wyborze, zakupie i przekazaniu agregatów wskazanej przez stronę ukraińską firmie przewozowej.

W piątek (20 stycznia 2023 roku) przesyłka szczęśliwie dotarła do Kijowa i została odebrana przez kolegów z sieci URAN!

Fot 1. Przygotowanie agregatu – integracja na podwoziu przyczepki samochodowej

 

Fot. 2. Przesyłka przed wyjazdem na Ukrainę

 

Fot. 3. Przesyłka w Kijowie po odbiorze przez URAN

 

Raimundas Tuminauskas 

Kategorie
#Technologie: Aktualności

Uruchomiliśmy nowy portal PIONIER-LAB

Powstała nowoczesna platforma integracji tego typu usług została udostępniona dla jednostek naukowych, przedsiębiorców i wszystkich prowadzących badania naukowe lub prace rozwojowe. Projekt PIONIER-LAB znajduje się na Polskiej Mapie Infrastruktury Badawczej (dawnej Polskiej Mapie Drogowej Infrastruktury Badawczej) i realizowany jest przez Konsorcjum 21 wiodących jednostek naukowo-badawczych oraz uczelni w Polsce. Jego liderem jest Poznańskie Centrum Superkomputerowo-Sieciowe działające przy Instytucie Chemii Bioorganicznej PAN.

Strona PIONIER-LAB jest stylistycznie zgodna z portalem PIONIER i stanowi jego część. W zakładce „Projekty” portalu PIONIER zostało również utworzone przekierowanie do specjalnie zbudowanej w tym roku podstrony poświęconej PIONIER-LAB. Obecnie strona PIONIER-LAB pełni funkcję informacyjną, trwają natomiast prace zespołu projektowego PIONIER-LAB, który przygotowuje portal usługowy. Gdy prace zostaną zakończone, oba portale zostaną ze sobą zintegrowane.

pionier-lab.pionier.net.pl jest pierwszym z szeregu portali projektów PIONIERa. Kolejnym przykładem rozbudowywania portfolio PIONIERa jest portal PIONIER-Q, uruchomiony w styczniu 2023 roku.

Projekt PIONIER-LAB wykracza poza obszar technologiczny i umożliwia prowadzenie badań interdyscyplinarnych. W projekcie budowane są nowe i unikalne laboratoria badawcze, wykorzystujące krajową sieć światłowodową PIONIER. Obecnie z dostępu do sieci PIONIER korzysta około 450 polskich jednostek naukowo-badawczych, a także wielu przedsiębiorców.

To jeden z największych pod względem zasięgu i budżetu projektów infrastrukturalnych w Polsce. Można powiedzieć, że jest to projekt na trzy pokolenia inżynierów i badaczy – mówi Artur Binczewski, koordynator projektu PIONIER-LAB z Poznańskiego Centrum Superkomputerowo-Sieciowego.

W ramach projektu PIONIER-LAB planowane jest utworzenie ośmiu wyspecjalizowanych laboratoriów: Laboratorium Innowacyjnych Technologii Sieciowych, Rozproszone Laboratorium Czasu i Częstotliwości, Smart Kampus jako laboratorium Smart City, Regionalne „Żywe” Laboratoria Innowacji inspirowanych ICT, Laboratorium Usług Chmurowych, Laboratorium Symulacji Wieloskalowych, Laboratorium i usługi e-szkoleń (w zakresie PIONIER-LAB i innowacji inspirowanych technologią) oraz Laboratorium Preinkubacji. W ramach każdego z laboratorów powstanie szereg usług, które w przyszłości zostaną udostępnione poprzez portal PIONIER-LAB.

Różnorodność laboratoriów pozwala prowadzić badania we wszystkich istotnych dla informatyki i telekomunikacji obszarach, jak również wcielać w życie ideę od pomysłu do produktu w ramach utworzonego Laboratorium Preinkubacji – podkreśla Artur Binczewski.

Ułatwi to prowadzenie badań w wielu różnorodnych obszarach nowych technologii takich jak np.: bezpieczny e-handel czy wykorzystanie sieci nowej generacji. Dowodem przydatności budowanej w ramach projektu infrastruktury może być fakt, że liczące się światowe firmy wniosły do niego sprzęt i oprogramowanie na kwotę ponad 140 mln złotych, co stanowi dobry przykład powiązania sektora nauki z gospodarką.

Z rezultatów projektu będą korzystali zarówno polscy naukowcy, jak i przedsiębiorcy. Dodatkowo, wykorzystanie infrastruktury i usług wytworzonych w ramach projektu, ułatwi udział polskim naukowcom w badaniach europejskich. Portal PIONIER-LAB powstał bowiem zgodnie z założeniami otwartej nauki i European Open Science Cloud oraz zasadami FAIR. Za prace nad jego powstaniem odpowiada zespół portalu pionier.net.pl.

Gabriela Jelonek, Marcin Dąbrowski

Kategorie
#Technologie: Aktualności

CLAW Meeting

Było interaktywnie, multimedialnie i zaskakująco, czasem z elementami humorystycznymi, a czasem także wywołującymi w uczestnikach realny stres, ale na tym właśnie polegają takie ćwiczenia. Oprócz regularnych warsztatów na tym dwudniowym spotkaniu można było wziąć udział także w specjalnie przygotowanej, kilkugodzinnej interakcji na żywo.

Pod koniec listopada w przestrzeniach Centrum Badawczego Polskiego Internetu Optycznego w Poznaniu wspólnie szkoliliśmy, omawialiśmy i tworzyliśmy strategie zarządzania kryzysem, odbyliśmy praktyczne ćwiczenia i rozmowy z mediami, i wreszcie – co zawsze jest najbardziej oczekiwanym elementem spotkania – zorganizowaliśmy trzygodzinne ćwiczenie fabularne, odgrywając role w symulowanym środowisku wyimaginowanego europejskiego Królestwa Guilder, pracując dla akademickiej sieci GuilREN…

 

 

W pięciu salach jednocześnie trwały ustalenia grup, których członkowie wcielali się w inżynierów, specjalistów od komunikacji i kierownictwa NRENu. Specjalnie na tę okazję powstały materiały, multimedia i elementy z pogranicza teatru, gry i interaktywnego spotkania, a do jego obsługi powstała specjalna aplikacja dla użytkowników, w której pojawiały się co chwila nowe informacje budujące fabułę kryzysu i spływające nowe dane. W trakcie można było „zadzwonić” do kilku ważnych osób, udzielających dodatkowych informacji (wypowiedzi nagrane wcześniej, którymi umiejętnie sterowali trenerzy grup, były specjalnie przygotowane z efektem dźwiękowym upodabniającym głos do rozmowy telefonicznej).

 

 

Kryzysowi przypatrywali się dziennikarze lokalnej stacji GBN News, która już od czterech lat relacjonuje kryzysy dotykające Guilder. Tym razem na żywo przekazała „breaking news” z aresztowania profesora Congara, a później także sygnalizowała kolejny hakerski atak za pomocą oprogramowania malware w sieci operatora GuilREN.

 

 

Twórcy ćwiczenia i koordynatorzy całej akcji mieli swoje centrum dowodzenia w studio PCSS, gdzie na długim, półkolistym ekranie mogli na żywo podglądać prace wszystkich ćwiczących grup. Co więcej, można było także posłuchać o czym dyskutują i do jakich wniosków dochodzą podczas warsztatów! Ćwiczenie zakończyło się konferencją prasową, z realnymi kamerami, fotografami, mikrofonami skierowanymi w stronę przedstawiających efekty swojej pracy specjalistów PR poszczególnych grup. Czy faktycznie zakończyła się też historia? Absolutnie nie, gdyż przekaz przerwało pojawienie się na TV przekazu zamaskowanej postaci związanej z ekstremistyczną grupą House of Rousing Fire działającą w Guilder, która stała za atakami i nieoczekiwane pojawienie się inspektora policji w budynku w towarzystwie wyposażonego w długą broń policjanta z jednostki antyterrorystycznej…

 

 

Podczas geantowych warsztatów niezwykle cennym doświadczeniem jest wymiana wiedzy i modeli procedur stosowanych w bliźniaczych sieciach akademickich i badawczych. Uczestnicy reprezentujący PIONIERa także mieli okazję wziąć czynny udział w spotkaniu i przekonać się, czy są przygotowani na różne scenariusze postępowania. Choć w ostatnich latach silniej zwracamy uwagę na bezpieczeństwo i skutki nieprzewidzianych, także globalnych, zdarzeń, to zgodnie ze starą maksymą „ćwiczenie tworzy mistrza” warto – choćby raz w roku – uczestniczyć w symulacji, by w prawdziwych warunkach kryzysu umiejętnie tę wiedzę wykorzystać. Wraz z organizatorami mamy nadzieję, że i tym razem kolejna cegiełka do tych kompetencji została skutecznie i owocnie dołożona.

Damian Niemir

Kategorie
#Technologie: Aktualności

Rok działania portalu PIONIER

Portal pionier.net.pl zaczął działać pod koniec grudnia 2021 roku. Już w styczniu 2022 r. rozpoczęliśmy proces aktualizacji dokumentów federacji PIONIER.Id i zasad dołączenia się do niej za pomocą nowej usługi Proxy PIONIER.Id. To wygodne rozwiązanie szczególnie dla tych service providerów, którzy wolą wykorzystywać OpenID Connect zamiast SAML.

Funkcja ta działa od lutego i od tego momentu PIONIER.Id jest podstawową i preferowaną usługą zarządzania tożsamością dla członków Konsorcjum PIONIER. Nowa usługa logowania jest oparta o oprogramowanie Keycloak i SATOSA oraz protokół OAuth 2.0. Usługa „Keyclock PIONIER.Id” została także zarejestrowana w federacji PIONIER.Id.

Wdrożenie logowania opartego o Keycloak pozwoliło na integrację różnych usług z Federacją PIONIER.Id z wykorzystaniem protokołów OIDC (OpenID Connect 1.0 / OAuth2.0). Są to standardy stosowane obecnie na całym świecie. Dotychczas integracja jakiejkolwiek usługi z Federacją PIONIER.Id musiała bazować na o wiele starszym protokole SAML2.0, dla którego wsparcie w przypadku wielu nowych pakietów oprogramowania, zwłaszcza bazujących na technologii web, jest ograniczone lub niedostępne.

Ponadto, dodanie bazującego na Keycloak elementu Proxy do Federacji PIONIER.Id pozwoliło na podniesienie poziomu bezpieczeństwa integrowanych systemów poprzez możliwości zastosowania drugiego czynnika uwierzytelniania opartego o algorytm TOTP – jednorazowe kody generowane przez aplikację zainstalowaną na urządzeniu mobilnym.

Praktycznym przykładem jest testowe podłączenie aplikacji PIONIER meet do federacji PIONIER.Id z wykorzystaniem budowanych w 2022 roku usług Proxy PIONIER,Id. Gdy zakończymy przyjmowanie aktualizacji dokumentacji, rozpoczniemy podłączanie wielu pozostałych usług powiązanych z PIONIERem, np.: PIONIER.TV Ośrodki. Prace zaplanowano na początek 2023 roku.

Jako Konsorcjum nie zostaliśmy też obojętni na to, co dzieje się za naszą wschodnią granicą. Na naszej stronie w widocznym miejscu cały czas opublikowane jest „Stanowisko w sprawie rosyjskiej agresji na Ukrainę”. Konsorcjum PIONIER stanowczo sprzeciwia się wojnie i podejmuje konkretne działania. Na aktualizowanym na bieżąco slajderze można znaleźć odnośniki do analiz i tekstów specjalistów w dziedzinie cyberbezpieczeństwa z Konsorcjum PIONIER, które publikujemy w PIONIER News. Pod naszym logo cały czas wyświetlamy napis „Solidarni z Ukrainą”, który ma przypominać, że wojna w bardzo różnych formach, także cyfrowa, wciąż trwa i nie możemy pozostać obojętni.

Na portalu wdrożyliśmy też zmiany w jego budowie, np.: poprzez dodanie w menu zakładki „Usługi sieciowe”. Zostały w niej opisane usługi transmisji w technologiach DWDM i MPLS. Wprowadziliśmy też zmiany w drzewie usług. Nowością jest usługa PIONIER DMP na bazie aplikacji ARGOS. Nowa aplikacja jest zgodna z wymaganiami EOSC, a nad opracowaniem dedykowanej instancji wraz tłumaczeniem na język polski i stworzeniem logotypu pracował zespół portalu PIONIER. W październiku usługę włączono do ekosystemu portalu PIONIER.

W drzewie usług pojawiła się też usługa RoHub, która pozwala na zarządzanie, przechowywanie i udostępnianie obiektów badawczych. Zespół portalu PIONIER rozwinął również PIONIER.TV, tworząc nowość, jaką jest PIONIER.TV Ośrodki. Publikowane są tam nowe materiały redakcyjne stworzone przez MANy. PIONIER TV Ośrodki zastąpi PLATON TV, a opublikowane już materiały są w trakcie przenoszenia (portal PLATON TV zostanie wygaszony).

W zakładce „Projekty” zostało utworzone przekierowanie do specjalnie zbudowanej w tym roku podstrony poświęconej PIONIER-LAB. Z kolei w zakładce „Współpraca” pojawił się opis projektu OCRE (Open Clouds for Research Environments), który ma na celu przyspieszenie adaptacji chmury otwartej nauki, poprzez zrzeszenie dostawców chmury, organizacji zajmujących się obserwacją Ziemi (eng. EO – Earth Observation) oraz społeczności naukowej i edukacyjnej. Jest to możliwe dzięki gotowym do użycia umowom o świadczenie usług. Usługi oparte na chmurze oferują europejskiej społeczności badawczej bogactwo narzędzi, jednak dla wielu badaczy są one obecnie niedostępne, a odpowiednie usługi trudno znaleźć i wybrać. Dlatego w tym roku zbudowaliśmy także dodatkową podstronę poświęconą European Open Sciene Cloud wraz z listą usług PIONIER związanych z EOSC. Z pewnością wielu osobom ułatwi to nawigację i zorientowanie się w dostępności narzędzi otwartej nauki.

Zmieniliśmy nieco zakładkę „O PIONIERze”, dodając zdjęcia członków Rady Konsorcjum PIONIER i jej Prezydium – z pewnością pomoże to lepiej się poznać, szczególnie tym, którzy wciąż pracują zdalnie czy w trybie hybrydowym. W końcu nasze Konsorcjum, a tym samym portal, budują ludzie. Widzimy, że coraz więcej osób czyta nasze treści i równie chętnie dzieli się swoją wiedzą na łamach PIONIER News. Dziękujemy za pierwszy wspólny rok w nowej odsłonie!

Gabriela Jelonek, Marcin Dąbrowski i zespół portalu pionier.net.pl

 

Kategorie
#Technologie: Aktualności

Wojna w Ukrainie i cyberprzestrzeni

Szacunki pochodzące z końcówki listopada określają ogólny poziom zniszczeń w tym sektorze na  około 40%[1], w przypadku fotowoltaiki na około 50%, a w przypadku farm wiatrowych nawet na 90%[2]. Sytuacja zmienia się dynamicznie.  Kryzys energetyczny w obliczu spadających temperatur jest na ten moment najpoważniejszym wyzwaniem dla mieszkańców i obrońców Ukrainy. Brak energii jest w sposób oczywisty również zagrożeniem dla systemów IT i ICS czy OT, co z kolei rodzi reperkusje w zakresie zapewnienia dostaw pozostałych mediów.

[1] https://www.voanews.com/a/russia-pounding-ukraine-s-energy-infrastructure-/6840621.html

[2] https://www.vox.com/world/2022/11/18/23460933/ukraine-infrastructure-strikes-russia-blackouts-war

Wracając do cyberprzestrzeni warto podkreślić, że atakowane są nie tylko systemy Ukraińskie, ale także systemy sojuszników – systemy rządowe krajów członkowskich NATO,  systemy organizacji  i przedsiębiorstw aktywnie wspierających obronę Ukrainy. Odnotowywane ataki mają dwojaki charakter: szpiegowski i destrukcyjny. Ataki o charakterze szpiegowskim są prowadzone w sposób nie powodujący szerokiego rozgłosu. Mają one na celu uzyskanie stałego dostępu do informacji czy infrastruktury – zapewne dowiemy się o nich z dużym opóźnieniem lub wcale. Natomiast w przypadku tych destrukcyjnych, głównym celem jest sparaliżowanie działania kluczowych procesów obronnych.

Dobrym przykładem drugiego typu ataków są próby zakłócenia procesów logistycznych poprzez próby sparaliżowania firm z sektora transportowego z wykorzystaniem złośliwego oprogramowania nazwanego Prestige.[1],[2] Ataki te dotyczyły głównie firm zlokalizowanych w Polsce i w Ukrainie. Informacja o tej kampanii zyskała rozgłos w połowie października, kiedy analitycy Microsoftu powiązali ją z grupą rosyjskich hakerów. Jak widać zagrożenia są realne także dla polskich przedsiębiorstw i dalsze utrzymywanie trzeciego stopnia alarmowego (CHARLIE-CRP[3]) dla bezpieczeństwa cyberprzestrzeni jest uzasadnione.

Co możemy zrobić, aby ograniczyć ryzyko? Na początek warto zadbać o to co zwykle, czyli regularne aktualizacje użytkowanych systemów, zachowanie ostrożności przy przetwarzaniu plików niewiadomego pochodzenia  i zmniejszenie ekspozycji usług w Internecie. W przypadku tej ostatniej kwestii polecam materiały przygotowane przez agencję CISA dzięki, którym możemy się dowiedzieć jakie informacje wystawiamy „na talerzu” potencjalnym adwersarzom.[4] Warto wiedzieć co wiedzą o nas inni.

Na koniec, krótki przegląd co świat robi, aby wspomóc Ukrainę w walce w cyberprzestrzeni. Ukraina z całą pewnością nie zostaje pozostawiona sama sobie – aktywnie wspiera ją wiele rządów i organizacji. Pełne wsparcie w tym zakresie jest trudne do oszacowania, gdyż część darczyńców woli pozostać anonimowa lub informuje o swoich działaniach z opóźnieniem. Dla przykładu rząd Wielkiej Brytanii poinformował na początku listopada, że przekazał w okresie bieżącego roku wsparcie o wartości 6 milionów funtów na ochronę ukraińskiej infrastruktury krytycznej i kluczowych usług publicznych przed atakami cybernetycznymi. Środki zostały przeznaczone m.in. na dostawę firewalli, rozwiązań anty-DDoS, oprogramowania do analizy malware oraz wsparcie w zakresie utwardzania systemów i reagowania na incydenty[5]. Microsoft przeznaczył od początku konfliktu 400 mln dolarów, z czego najnowszy pakiet stricte technologicznej pomocy dla Ukrainy opiewa na 100 mln dolarów[6]. Wsparcie zapewniają również inni giganci sektora IT np. Google[7]. Wspierany jest nie tylko sektor wojskowy, ale także cywilny.

Podsumowując, wojna hybrydowa trwa nadal i nic nie wskazuje, aby się miała szybko zakończyć. Ukraina broni się dzielnie m.in. dzięki otrzymywanemu wsparciu. W kontekście bezpieczeństwa IT zagrożenie ze strony adwersarzy dotyczy wszystkich i konieczna jest uważna obserwacja pojawiających się zagrożeń i możliwie szybkie ograniczanie związanego z nimi ryzyka

[1] https://sekurak.pl/nowe-ransomware-prestige-atakuje-polske-i-ukraine/

[2] https://www.microsoft.com/en-us/security/blog/2022/10/14/new-prestige-ransomware-impacts-organizations-in-ukraine-and-poland/

[3] https://stat.gov.pl/aktualnosci/wprowadzenie-stopni-alarmowych-bravo-i-charlie-crp,423,1.html

[4] https://www.cisa.gov/publication/stuff-off-search

[5] https://www.gov.uk/government/news/uk-boosts-ukraines-cyber-defences-with-6-million-support-package

[6] https://blogs.microsoft.com/on-the-issues/2022/11/03/our-tech-support-ukraine/

[7] https://ukrainet.eu/2022/09/04/google4ua-2nd-round-results/

Maciej Miłostan

Kategorie
#Technologie: Aktualności

Realizacja zasilania gwarantowanego w obiektach sieci PIONIER

Organizacja EC-RRG (ang. Electronic Communications Resilience & Response Group) wskazała ważną rolę sieci telekomunikacyjnych we współczesnym świecie, dokumentując to w artykule pod tytułem „Sieci Telekomunikacyjne – istotna część Krytycznej Państwowej Infrastruktury” (tytuł oryginalny: „Telecommunications Networs – a vital part of the Critical National Infrastructure”). Autorzy artykułu określają jakie wymagania stawiane są sieciom telekomunikacyjnym – w tym również systemom zasilającym – wskazując jednocześnie na potrzebę zapewnienia niezawodności i ciągłości działania tych systemów.

Odwołując się do tych doświadczeń i wiedzy, minimalizując przy tym ryzyko utraty możliwości przesyłowych sieci, urządzenia transmisyjne w sieci PIONIER zasilane są napięciem stałym -48V. Budowanie systemów zasilania w oparciu o napięcie stałe przynosi duże korzyści, są to m.in. niezawodność, odporność na zakłócenia, minimalizacja mocy biernej czy zakłóceń harmonicznych pochodzących z sieci elektroenergetycznej.

Urządzenie konwertujące napięcie przemienne dostarczane z sieci elektroenergetycznej 230VAC na stałe o napięciu -48V w telekomunikacji nazywamy siłownią telekomunikacyjną. Obecnie dostępny jest szeroki wachlarz rozwiązań o wysokim stopniu niezawodności. W obiektach regeneratorowych  dysponujemy zwykle ograniczoną przestrzenią, dlatego szczególną wagę przykładamy do wymiarów urządzeń. Te są tym większe im większa jest przetwarzana przez nie moc. Gęstość mocy (ang. Power Density) to parametr, który określa ile mocy zdolne jest wytworzyć (przetworzyć) urządzenie, w odniesieniu do jego rzeczywistych wymiarów. Moc stosowanych zwykle w naszej sieci siłowni telekomunikacyjnych kształtuje się na poziomie ok. 4,2 kW i jest wystarczająca do zasilania zainstalowanych w węźle urządzeń, takich jak: systemy transmisyjne (DWDM), konwertery elektryczno-optyczne, urządzenia wzmacniające nośną czasu lub częstotliwości, czy serwery konsolowe i przełączniki sieciowe.

W ostatnim czasie zwiększyliśmy możliwości magazynowania energii w obiektach sieci PIONIER, wydłużając średni czas autonomicznej pracy obiektu. Trwają też dalsze prace rozwojowe mające na celu integrację obecnych systemów zasilania gwarantowanego z odnawialnymi źródłami energii. Rozwiązania pilotażowe wprowadzone będą w realizowanej obecnie inwestycji związanej z przeniesieniem węzła sieci w Biłgoraju – w dedykowanym kontenerze telekomunikacyjnym poza wyposażeniem w dodatkowe źródła energii (panele słoneczne) zastosowany zostanie free cooling wpływający na zmniejszenie zapotrzebowania energetycznego obiektu. Działania te przyczynią się niewątpliwie do zwiększenia  autonomii energetycznej obiektów sieci PIONIER.

Rafał Szpiler