Kategorie
#Technologie: Aktualności

Nadchodzi złota era radioastronomii!

Konsorcjum działać będzie na rzecz europejskiej infrastruktury badawczej Sieć Radiowa Niskiej Częstotliwości.

LOFAR to największy na świecie system radioteleskopów zlokalizowanych w różnych częściach Europy (m.in. na terenie Holandii, Niemiec, Polski czy Szwecji). Obecnie system tworzą 52 stacje połączone ze sobą bardzo szybkim łączem internetowym. Jego pomysłodawcą i inicjatorem jest środowisko naukowe radioastronomów związane z niderlandzkim instytutem ASTRON, a początki tego przedsięwzięcia sięgają lat 90. ubiegłego wieku. Większość, bo aż 38, stacji pracujących w systemie LOFAR znajduje się w Niderlandach. Kolejnych 6 zlokalizowanych jest w Niemczech, po 1 w Szwecji, Wielkiej Brytanii, Francji, Irlandii i na Łotwie oraz 3 w Polce. Są to:

  • PL-610 w Borówcu (koło Poznania), należącej do CBK PAN,
  • PL-611 w Łazach (koło Krakowa), przynależnej do Uniwersytetu Jagiellońskiego,
  • PL-612 w Bałdach (koło Olsztyna), będącej własnością Uniwersytetu Warmińsko-Mazurskiego.

LOFAR ERIC umożliwi przejrzysty dostęp do wielu usług badawczych. Wesprze współpracę naukową i umożliwi realizację innowacyjnych projektów na dużą skalę i to w różnych dziedzinach nauki.

Prof. Andrzej Krankowski, kierownik Centrum Diagnostyki Radiowej Środowiska Kosmicznego UWM oraz szef konsorcjum POLFAR, które wchodzi w skład ILT, będzie pełnił rolę polskiego naukowego delegata w radzie LOFAR ERIC.

Utworzenie LOFAR ERIC jest dalszą konsolidacją badań radioastronomicznych w Europie oraz Polsce. LOFAR ERIC wkracza do Europejskiej Przestrzeni Badawczej, jako wiodąca infrastruktura wykorzystująca najnowocześniejsze osiągnięcia nauki i technologii astronomicznej. W Polsce badania w ramach LOFAR-ERIC konsoliduje konsorcjum POLFAR (Polski LOFAR), w skład którego wchodzą następujące instytucje naukowe: Uniwersytet Warmińsko-Mazurski w Olsztynie, Uniwersytet Jagielloński w Krakowie, Centrum Badań Kosmicznych PAN w Warszawie, Poznańskie Centrum Superkomputerowo Sieciowe w Poznaniu (PCSS), Uniwersytet w Zielonej Górze, Uniwersytet Mikołaja Kopernika w Toruniu, Centrum Astronomiczne im. Mikołaja Kopernika PAN (Warszawa) oraz Uniwersytet Przyrodniczy we Wrocławiu. Trzy pierwsze polskie instytucje wybudowały w 2015 roku stacje LOFAR: PL-612 w Bałdach, PL-611 w Łazach oraz PL-610 w Borówcu, PCSS zabezpiecza, poprzez infrastrukturę PIONIERa transfer danych z polskich stacji do korelatora systemu w Holandii oraz jest jednym z trzech centrów danych z całej sieci LOFAR – mówi prof. Andrzej Krankowski.

Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

Światłowodowe połączenia z sąsiednimi sieciami NREN – SANET

Początkowo sieć PIONIER połączona była z siecią SANET tranzytem, z wykorzystaniem czeskiej sieci CESNET, poprzez styk w Cieszynie. Już w październiku 2004 roku uruchomiono peering do obu tych sieci na łączu 1 Gbps z przełącznika BlackDiamond sieci POL-34/622 (poprzednika sieci PIONIER) zainstalowanego w Bielsku-Białej.

W roku 2007 wybudowano linię światłowodową PIONIERa z Bielska-Białej do granicy ze Słowacją w Zwardoniu. W lutym następnego roku pozwoliło to uruchomić bezpośrednie połączenie transmisyjne o przepływności 10 Gbps. Węzeł aktywny, zapewniający połączenie sieci PIONIER i SANET zlokalizowany jest w budynku Uniwersytetu Żylińskiego w Żylinie, Połączenie zapasowe do słowackiej sieci realizowane jest jako VPN w warstwie 2, tranzytem poprzez sieć CESNET.

Zainstalowany w ostatnim czasie, w ramach projektu PIONIER-LAB, system transmisyjny stwarza perspektywę znaczącego zwiększenia przepływności łącza do SANETu. Węzeł nowego systemu transmisyjnego zlokalizowano w Zwardoniu. Umożliwia on realizację transmisji sygnałów macierzystych jaki i obcych (alien lambda) 100, 200, 400 i 800 Gbps oraz wymianę pasma optycznego o dowolnej szerokości (spectrum sharing).

Szymon Trocha, Krzysztof Stanecki, Krzysztof Kołat

 

Kategorie
#Technologie: Aktualności

Centrum Nowych Technologii i Innowacji powstanie w Poznaniu z wykorzystaniem sieci PIONIER

Technologie kwantowe, nie tylko do rozwiązań informatycznych, ale przede wszystkim w cyberbezpieczeństwie, są dzisiaj ogromnie ważne. Dlatego na Politechnice Poznańskiej powstanie Centrum Nowych Technologii i Innowacji.

Naszym marzeniem było stworzenie Centrum i przede wszystkim też hubu kwantowego, który może być domeną naszą i instytucji, które otaczają Politechnikę Poznańską. Wykorzystując sieć internetową PIONIER, będziemy połączeni z najlepszymi ośrodkami europejskimi po to, żeby konkurować gospodarczo – podkreślił na konferencji prasowej rektor Politechniki Poznańskiej prof. dr hab. inż. Teofil Jesionowski.

Politechnika Poznańska jest jedną z najlepszych uczelni zajmujących się sztuczną inteligencją, a wraz z Poznańskim Centrum Superkomputerowo-Sieciowym pracuje nad cyberbezpieczeństwem. Stworzenie Centrum Nowych Technologii i Innowacji ma pozwolić na rozwój technologii i konkurencyjności polskiej gospodarki we współpracy z państwami sąsiadującymi.

W Centrum będą rozwijane też inne specjalności, w tym m.in. z dziedziny energetyki odnawialnej czy energetyki jądrowej.

 – Będzie to też miejsce do generowania start-up’ów i innowacyjnych technologii, spółek celowych. Ma to być miejsce komercjalizacji transferu technologii. Jako jedna z nielicznych wiodących uczelni w Polsce takiego Centrum nie mieliśmy – zaznaczył prof. Jesionowski.

Nowe Centrum ma podnieść też atrakcyjność i jakość nauczania na politechnice. Później natomiast sprawić, by najzdolniejsi absolwenci mogli w kolejnych latach rozwijać się dalej i wprowadzać swoje produkty na rynek.

Budynek Centrum Nowych Technologii i Innowacji jest już projektowany, ma być zlokalizowany obok nowego rektoratu. Budowa Centrum – od momentu rozpoczęcia prac budowlanych – ma potrwać około dwóch lat. Otwarcie planowane jest na przełom 2026 i 2027 roku.

Łączny koszt inwestycji wyniesie ok. 220 mln zł. Premier Mateusz Morawiecki podpisał decyzję o przekazaniu obligacji Skarbu Państwa o łącznej wartości 120 mln zł na budowę obiektu.

Oprac. Gabriela Jelonek

Kategorie
#Technologie: Aktualności

Z budynku do kontenera

Do zdarzenia doszło pod koniec lipca. Pożar wstrząsnął lokalną społecznością miejscowości Górki, ale i całą gminą Kłodawa. Dach nad głową straciło 26 mieszkańców budynku mieszkalnego przekształconego po szkole, w którym znajdowały się także urządzenia sieci PIONIER.

Na szczęście w pożarze nikt nie zginął. Infrastruktura PIONIERa również nie ucierpiała. Doszczętnie zniszczony budynek nie nadawał się jednak do dalszej eksploatacji, a zatem koniecznie trzeba było znaleźć inne miejsce na przeniesienie urządzeń. Tymczasowo zostały one ulokowane w kontenerze. Miejsce na nową, docelową już lokalizację obiektu kontenerowego zostało wytypowane. Obecnie potwierdzane są warunki techniczno-ekonomiczne, trwają procedury administracyjne

Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

Kompendium GÉANT

PCSS, jako operator sieci PIONIER, co roku dostarcza zagregowanych danych do tego raportu. Są to między innymi informacje dotyczące rodzajów i ilości połączeń zagranicznych sieci PIONIER, sumarycznej liczby dołączonych jednostek danego typu, oferowanych usług czy ruchu sieciowego. Na podstawie tych danych autorzy kompendium przygotowują zbiorcze statystyki w odniesieniu do środowiska sieci dołączonych do GÉANT.

Z uwagi na ogromną różnorodność organizacyjną oraz sposoby finansowania sieci krajowych, a także indywidualne podejście do ochrony pewnych informacji technicznych i organizacyjnych nie zawsze możliwe jest dostarczenie precyzyjnych danych lub ich jednoznaczne porównanie. Stąd można zauważyć, że w niektórych zestawieniach tego opracowania część sieci krajowych jest nieobecna, włączając w to sieć PIONIER. W sumie, w kompendium z roku 2022, dane uwzględniają 40 z 43 sieci krajowych, w postaci zagregowanej lub szczegółowych odpowiedzi. Kompendium dodaje także dane z innych raportów czy opracowań GÉANT.

Na rysunku przedstawiono przykładowe zestawienie z kompendium łącznego ruchu dla sieci krajowych w latach 2020 – 2022.

Dane do kompendium o polskiej sieci PCSS pozyskuje m.in. z kwestionariusza, który co roku przesyłany jest do konsorcjantów sieci PIONIER. Szczegółowy formularz pozwala na wprowadzenie informacji z dokładnością do pojedynczej dołączonej do sieci miejskiej jednostki. Dodatkowo pozyskiwane informacje są wykorzystane również na potrzeby rozwoju sieci PIONIER. W tym w szczególności na planowanie i rozwój przyłączy oraz współpracę z jednostkami publicznymi. Pozostałe informacje w kompendium pochodzą z raportów sieci PIONIER oraz opracowań własnych.

Szymon Trocha

Kategorie
#Technologie: Aktualności

Połączenie do CERN dla NCBJ

Działające w oparciu o zasoby DWDM oraz transmisję MPLS połączenie, zapewni polskim naukowcom dostęp do sieci LHCOPN.

LHCOPN to wysokowydajna infrastruktura sieciowa, łącząca ośrodki klasy Tier0 oraz Tier1, skupione wokół projektu Worldwide LHC Computing Grid (WLCG).

Jego celem jest zapewnienie globalnych zasobów do przechowywania, dystrybucji i analizy danych, generowanych w ramach eksperymentów prowadzonych z wykorzystaniem Wielkiego Zderzacza Hadronów (LHC).

Informacja o polskim ośrodku dołączonym do LHCOPN została zaprezentowana podczas 50-tego spotkania LHCOPN-LHCONE w FZU w Pradze.

Tomasz Szewczyk

Kategorie
#Technologie: Aktualności

Software-Defined Networks, czyli marsz w przyszłość

Raz kupione urządzenia obsługiwały konkretne standardy i służyły wiele lat stanowiąc pewnego rodzaju wyspę technologiczną. Owszem, protokoły dynamicznego routingu (czyli wyznaczania tras pakietów) istniały w wyższej warstwie sieciowej, ale w warstwie łącza danych mieliśmy najczęściej sytuację „na sztywno”, gdzie każda ważniejsza zmiana wymagała wizyty inżyniera w pomieszczeniu aparatury. Umowy z klientami usług obowiązywały na stosunkowo długie okresy kilku lat, żeby inwestycje w sprzęt i te „wyspy” czy inne „silosy” finansowo i moralnie się zamortyzowały w czasie trwania umów.

Przez lata znacząco wzrósł ruch w sieciach. Rośnie nie tylko szybkość transmisji, ale przede wszystkim liczba węzłów sieci, liczba włókien, liczba wykorzystanych długości fal nośnych i konieczność połączenia w jednym światłowodzie wielu technologii transmisyjnych. Obecnie, w dobie komunikacji 5G i Internetu rzeczy wymagania rosną i konieczne jest stosowanie również połączeń typu punkt-wiele punktów. Stosuje się podział włókien światłowodowych pomiędzy wiele rozłącznych transmisji w różnych standardach i trybach, np. z podziałem czasu (TDM) lub długości fali (CWDM, DWDM). Zarządzanie i monitoring sieci muszą być wydajne w sytuacji częstych zmian konfiguracji sieci. Czyli potrzebujemy elastyczności i skrócenia czasu od pomysłu, przez fazę proof-of-concept, a później gotowego rozwiązania produkcyjnego.

Skoro wszystko jest software-defined, to sieci światłowodowe też

Współczesny świat zmierza do separowania infrastruktury usługodawcy od odbiorcy. Trendy są takie, że klient nie musi znać się na sposobie realizacji usługi w niższych warstwach. A dostawca chce mieć jeden centralnie zarządzany system dla zapewnienia punktów styku dla wszystkich klientów. Nikt już nie chce autonomicznych wysp technologicznych budowanych tylko dla jednego klienta. Zasada ta obowiązuje w wielu dziedzinach życia, nie tylko w telekomunikacji, ale też choćby w rozwiązaniach chmurowych.

Można powiedzieć, że obszar software-defined, czyli rozwiązań budowanych za pomocą zmiany konfiguracji lub wgrania nowego oprogramowania w miejsce wymiany sprzętu, ma w telekomunikacji dwie główne odnogi. Jedna to Software-Defined Radio (SDR). Dostawcy często tworzą uniwersalną platformę sprzętową odpowiedzialną za część analogową i działającą w szerokim zakresie częstotliwości radiowych. Chodzi o wzmacniacze niskoszumne (odbiorniki) lub mocy (nadajniki), interfejsy antenowe, przemianę częstotliwości i filtrację. Natomiast modulację lub demodulację cyfrową wraz z ramkowaniem i korekcją błędów przenosi się w dziedzinę oprogramowania. Takie urządzenie może obsługiwać wiele standardów cyfrowych jednocześnie bez konieczności inwestowania w nową platformę sprzętową. W szybko zmieniającym się świecie aktualizacji standardów dostępów radiowych rozwiązanie zwiększa elastyczność, bo zmniejsza koszty i skraca czas od pomysłu do uruchomienia pilotażowej usługi.

Ale nie tylko komunikacja radiowa wpadła na ten pomysł. W dziedzinie sieci światłowodowych spotykamy się z Software-Defined Networks (SDN). Można powiedzieć, że SDN jest ważnym założeniem, paradygmatem budowy nowych sieci optycznych. Rosnąca liczba wariantów transmisji, liczby klientów i skracanie czasu uruchomienia usługi powoduje, że rośnie problem zarządzania sieciami i elastycznością w zmianach konfiguracji. Trzydzieści lat temu raz uruchomiony system światłowodowy pracował latami, aż do kolejnej inwestycji w sprzęt nowszej generacji. Dziś jest to dalece niewystarczające. Wraz ze wzrostem stopnia skomplikowania konfiguracji sieci, zarządzanie nimi ręcznie staje się zbyt mało wydajne. Potrzebne są szybkie rozwiązania dla różnych małych projektów, eksperymentów, małych usług. Mamy potrzebę większej zwinności. Kluczowym elementem SDN jest konfiguracja, a w trakcie użytkowania, automatyzacja przepływu danych.

W SDN izoluje się samo zarządzanie siecią od ruchu sieciowego użytkowników sieci. Z punktu widzenia użytkownika, topologia sieci, często stosunkowo skomplikowana, jest niewidoczna i niemożliwa do ustalenia z poziomu klienta, a sam klient nie musi być informowany o zmianach, np. przełączeniach awaryjnych lub innych rekonfiguracjach, o ile zapewniona jest umowna wydajność.

Orkiestracja i już wszystko gra na płaszczyznach

Absolwentom szkół muzycznych orkiestracja kojarzy się zapewne z rozpisaniem utworu na poszczególne instrumenty i procesem tworzenia partytury. Robi to kompozytor albo aranżer. Cóż, dobry inżynier też powinien być artystą w swoim fachu. Nam orkiestracja kojarzy się jednak z zarządzaniem. Otóż łatwo powiedzieć o nowym paradygmacie i roztaczać piękne wizje SDN. Ale praktyka wymaga standaryzacji i rozpisania ról poszczególnych modułów systemu, aby rozwiązania od wielu dostawców były kompatybilne.

W SDN wprowadzono pojęcie płaszczyzn (planes), których rozróżniamy zasadniczo trzy. Mamy płaszczyznę biznesową/aplikacyjną, czyli warstwę określenia wymagań funkcjonalnych. Implementuje się ją zazwyczaj jako moduł oprogramowania orkiestratora, w którym administratorzy określają co chcą osiągnąć i za pomocą jakich środków. Orkiestrator to najwyżej położona część systemu, w której definiuje się usługi, usługobiorców i dochodzi do ich opisu w formie metadanych. Następną płaszczyzną jest pośrednia płaszczyzna kontrolera sieci. W tej płaszczyźnie zarządza się zasadami przepływów danych realizowanych przez urządzenia sieciowe. Wreszcie mamy płaszczyznę przetwarzania strumieni danych użytkownika realizowaną przez same urządzenia sieciowe, do których doprowadzone są światłowody. Większość z nich to będą przełączniki, które obsługują SDN. Płaszczyzny w SDN komunikują się przez uzgodnione interfejsy i implementacje tych płaszczyzn mogą w założeniu pochodzić od różnych dostawców, choć oczywiście są i tacy dostawcy, którzy oferują pełen stos protokołów i rozwiązane „z półki”. Niektórzy dostawcy, dostarczają wszystkie moduły, od przełączników, aż do orkiestratora. Ale są też dostawcy specjalizujący się w wybranych polach, np. dostarczają same przełączniki albo same orkiestratory.

W założeniu, dzięki standaryzacji, operator dużej sieci może kupić „czyste” urządzenia, które dopiero podpięte zostaną pod system kontrolera, a on do systemu orkiestracji, który to zleci odpowiedniej usłudze wygenerowanie konfiguracji do urządzeń, a także zadba o ich wdrożenie w sieci. W ten sposób można zmienić sieć bez fizycznego dostępu do urządzeń.

Protokół jak piosenka, jest dobry na wszystko

Kluczem do sukcesu każdej technologii jest standaryzacja. W SDN przełączniki różnych dostawców powinny docelowo obsługiwać te same standardy, aby moduły zarządzające mogły w prosty sposób generować dla nich konfiguracje. W przeciwnym razie będą budowane wyspy technologiczne danych dostawców gotowych rozwiązań, a integracje pomiędzy tymi wyspami będą bardzo drogie, choć w obrębie danej wyspy SDN będzie realizowane. W telekomunikacji, jeśli trzeba coś ustandaryzować, zazwyczaj kończy się to powstaniem uznanego w branży protokołu, czyli opisu sposobu wymiany danych.

W SDN najbardziej popularny protokół to OpenFlow. Przypisuje się go do warstwy drugiej (łącza danych). Jest protokołem sterowania przepływami, które rozumie się jako strumienie pakietów o pewnych cechach. Na podstawie tzw. tabeli przepływów, dobiera się odpowiedni scenariusz działania dla nadchodzącego od klienta pakietu, np. przekierowanie go na odpowiedni port odpowiedniego urządzenia. OpenFlow umożliwia automatyczne przełączanie tras na podstawie odświeżanej na bieżąco tabeli przepływów w sieci. Trasy mogą być programowane za pomocą poleceń protokołu. Protokół może sterować różnymi parametrami transmisji, np. długością fali w DWDM. Umożliwia także wyliczanie tras, czyli określania węzłów, przez które przepłyną dane klienta. Protokół służy też do konfigurowania i monitorowania urządzeń. Zapewnione są różne miary QoS (Quality of Service) takie jak bitowa stopa błędów, stosunek sygnału do szumu i uogólnione współczynniki jakości. Można powiedzieć, że protokół OpenFlow pośredniczy pomiędzy płaszczyzną zarządzania, a płaszczyzną transmisji danych.

Przełączniki SDN, czyli kto odwali robotę?

Częścią wykonawczą w SDN, działającą w najniższej płaszczyźnie, czyli elementem, który ma styczność z danymi klienta, są przełączniki SDN. Zarządzanie przełącznikiem obsługującym OpenFlow polega na tworzeniu, usuwaniu i modyfikowaniu przepływów wzdłuż ścieżki przepływu danych. Przełącznik, fizyczny lub wirtualny (jako proces uruchomiony na większym urządzeniu), zawiera szereg tabel przepływów oraz zestaw instrukcji (akcji). Wpisy w tabelach przepływów służą do weryfikacji spełnienia pewnych warunków przez nadchodzące pakiety. Potem dochodzi do poddania tych pakietów pewnym akcjom zdefiniowanym w zestawie instrukcji. Te tabele przepływów i akcje mogą być na bieżąco zmieniane i monitorowane przez kontroler sieci.

Przełączniki SDN obsługują najczęściej protokół OpenFlow za pomocą połączenia SSL i TCP/IP. W tym sensie protokół wymaga warstwy trzeciej na interfejsie zarządczym do zarządzania przepływami w warstwie drugiej na innych swoich interfejsach.

Panie, a kto się tym zajmie?

Korzenie standaryzacji sięgają jeszcze roku 1995, kiedy Sun Microsystems zapoczątkował prace w ramach Java Open Networking Foundation (OFN). Były to początki protokołu OpenFlow. Prace były prowadzone były m.in. na Uniwersytecie Stanforda i Indiana University, a pierwsza wersja protokołu powstała w 2009 r. Obecnie dużą rolę odgrywa organizacja Open Networking Foundation (https://opennetworking.org). Jest społecznością stanowiącą parasol nad różnymi projektami standaryzacji rozwiązań software-defined, w tym SDN. Zajmuje się także certyfikacją zgodności z protokołem OpenFlow współpracując z akredytowanymi laboratoriami testującymi. W rozwój SDN zaangażowany jest też wielki biznes. W pracach nad implementacją protokołu uczestniczą Cisco, Hewlett-Packard, IBM, Juniper Networks, Dell, Google i wiele innych czołowych dostawców technologii.

Do pracy, rodacy!

Stosowanie SDN ma dużo zalet, wśród nich przypomnijmy możliwość wydajnego, centralnego i zwinnego zarządzania całą siecią przez zespół administratorów oraz możliwość stosowania mechanizmów automatycznej rekonfiguracji. Skraca się czas prowadzenia faz proof-of-concept i wdrożenia usługi. Zalety SDN ujawniają się najsilniej tam, gdzie spotykają się strumienie danych od różnych klientów i w różnych technologiach. Jest to właśnie przypadek sieci PIONIER. Zatem SDN to przyszłość PIONIERa.

Marcin Dąbrowski

Kategorie
#Technologie: Aktualności

Połączenie z siecią LITNET

Stało się to możliwe m.in. dzięki wsparciu krajów skandynawskich, które w 1991 roku sfinansowały pierwsze międzynarodowe satelitarne połączenie z Uniwersytetem w Oslo. Dziś LITNET to konsorcjum 5 największych uniwersytetów Litwy – dostarcza usługi sieci naukowej dla całego litewskiego środowiska naukowego, które realizowane są na bazie infrastruktury światłowodowej łączącej również sąsiednie kraje Unii Europejskiej.

Połączenie sieci LITNET z PIONIERem planowane było od dłuższego czasu. Sposób budowy i dalszy rozwój wyznaczono w ramach działań w koordynowanym przez PCSS projekcie „Porta Optica”, realizowanym w latach 2005-2007.

Połączenie wykonano z wykorzystaniem budowanej wówczas infrastruktury światłowodowej sieci PIONIER relacji: Gdańsk – Olsztyn – Suwałki – Białystok – Warszawa, w postaci odgałęzienia z Suwałk do Ogrodnik. Infrastrukturę światłowodową do granicy obu krajów zrealizowano ostatecznie w roku 2013. Wtedy też uruchomiono transmisję w technologii DWDM z przepływnością10 Gbps.

To bezpośrednie połączenie umożliwiło szerszą współpracę środowisk naukowych w Polsce i na Litwie, a także we wszystkich krajach bałtyckich. Połączenie wykorzystywane jest też na potrzeby sieci GÉANT – transmisja do krajów bałtyckich.

W roku 2019 połączenie zostało zmodernizowane, umożliwiając realizację wielu kanałów 10 Gbps oraz dostarczania usług spektrum. Umożliwiło to prowadzenie badań z zastosowaniem zaawansowanych metod transmisji czy transmisji sygnałów kwantowych. Infrastruktura wykorzystana jest do współpracy w badaniach naukowych z Litewskim Laboratorium Standardów Czasu i Częstotliwości przy Centrum Fizycznych Nauk i Technologii w Wilnie.

Kolejna modyfikacja nastąpiła w roku 2022 – zwiększono liczbę bezpośrednich połączeń na poziomie włókien światłowodowych. Trwają prace nad realizacją transferu czasu i częstotliwości z wykorzystaniem dedykowanych włókien światłowodowych.

Historia współpracy pomiędzy sieciami PIONIER i LITNET potwierdza korzyści płynące z wykorzystania bezpośrednich połączeń transgranicznych. Umożliwiają one elastyczną adaptację sieci do rosnących wymagań środowiska naukowego.  Połączenia te umożliwiają realizację transmisji z dużymi przepływnościami wspomagającymi efektywną współpracę naukowców sąsiednich krajów, szczególnie w obszarze obliczeń wielkiej skali, a także precyzyjną synchronizację czasu i częstotliwości oraz połączeń kwantowych. Łącznie z infrastrukturą sieci zrealizowaną przez GÉANT w projekcie GN4-3N, trasa będzie najkrótszą drogą do centrum obliczeniowego LUMI w Finlandii.

Raimundas Tuminauskas

Kategorie
#Technologie: Aktualności

Sztuczna inteligencja a bezpieczeństwo

Powszechna fascynacja udostępnioną technologią spowodowała, że użytkownicy zaczęli znajdować coraz to nowe zastosowania dla ChatGPT. Jednakże prowadząc konwersację ze sztuczną inteligencją, na fali powszechnej euforii, nie wszyscy zastanawiali się, co będzie się działo z danymi, które w trakcie „rozmowy” wprowadzą do systemu. W szczególności, czy i jak system te dane wykorzysta. W efekcie, system został zasilony fragmentami poufnych kodów czy dokumentów do użytku wewnętrznego. Co istotne, fragmenty tych dokumentów mogą się pojawić w odpowiedziach na zapytania innych użytkowników. Problem ten dobrze obrazuje wyciek danych Samsunga[1], który nastąpił zaledwie 20 dni po tym jak korporacja zniosła zakaz korzystania przez pracowników z ChatGPT. Zakaz był uprzednio wprowadzony właśnie po to, by chronić firmowe dane. Notabene, na początku maja zakaz w Samsungu został przywrócony. Pamiętajmy, aby chronić nasze dane. Ponadto, korzystając z modeli sztucznej inteligencji weźmy pod uwagę, że wykorzystywane do stworzenia modeli dane wejściowe, przykłady uczące, nie są idealne i mogą być stronnicze (ang. bias), co przekłada się na generowane odpowiedzi. Nie dajmy się zmanipulować.

[1] https://cybernews.com/news/chatgpt-samsung-data-leak/

Narzędzia takie jak ChatGPT są bez wątpienia bardzo użyteczne i otwierają nowe perspektywy w zakresie tworzenia treści czy identyfikacji znanych rozwiązań, ale otwierają też nowe pola do nadużyć. Przy czym nie mam tu na myśli automatycznego pisania prac zaliczeniowych czy znajdowania odpowiedzi do testów on-line, ale wykorzystanie sztucznej inteligencji do prowadzenia kampanii dezinformacyjnych czy ataków spersonalizowanych. Dzięki sztucznej inteligencji personalizacja ataku może zostać dokonana w sposób co najmniej półautomatyczny. Firma OpenAI jest świadoma potencjalnych nadużyć i wspólnie ze środowiskami akademickimi stara się informować o zagrożeniach wynikających z dostępności zaawansowanych modeli językowych i próbuje proponować środki zaradcze. Zachęcam do zapoznania się z raportem podejmującym tę tematykę opublikowanym na stronie OpenAI.[1]

Korzystając z serwisów on-line, a w szczególności je tworząc, warto pamiętać o stosowaniu klasycznych zabezpieczeń IT i należytym testowaniu wdrażanych rozwiązań. Niestety, w tym zakresie dostawca ChatGPT poległ – zaledwie parę miesięcy po udostępnieniu portalu doszło do wycieku danych części użytkowników, w tym danych kart kredytowych.[2] Trzeba przyznać, że firma podeszła do problemu w sposób możliwie transparentny i otwarcie poinformowała o incydencie. Sztuczna inteligencja na ten moment sama nie wdroży dobrych praktyk.

Wśród wielu pomysłów na wykorzystanie modeli językowych pojawiły się również koncepcje automatycznego generowania kodu lub poprawiania kodu. Jedną z takich platform jest Codex[3] zintegrowany również z GitHub-em jako Copilot[4], czyli system, który biorąc pod uwagę kontekst przedstawionego kodu proponuje jego uzupełnienia. Codex potrafi też generować nowy kod na podstawie opisu w języku naturalnym. Czy taki kod jest równie bezpieczny jak napisany przez doświadczonego programistę? M.in. na to pytanie odpowiada praca przygotowana przez naukowców ze Stanford.[5] Odpowiedź niestety nie jest pozytywna – z przeprowadzonego eksperymentu wynika, że osoby korzystające z mechanizmów wspomagających pisały znacząco mniej bezpieczny kod, jednocześnie mając wyższe poczucie, że piszą dobry (bardziej bezpieczny) kod niż osoby, które ze wsparcia nie korzystały. Wniosek jest taki, że z systemów wspomagających powinni korzystać przede wszystkim doświadczeni programiści, którzy są w stanie ocenić czy zaproponowany kod jest zgodny z najlepszymi praktykami bezpiecznego kodowania. Mimo pewnych mankamentów, systemy wspomagające programowanie, jeśli właściwe zastosowane, potrafią zwiększyć produktywność programistów, a tym samym obniżyć czas implementacji nowych systemów. Przy okazji warto zauważyć, że jakość generowanego kodu jest zależna od danych, które algorytmy uczenia dostały na wejściu.

Co ciekawe sztuczną inteligencję można wykorzystać także do generacji kodów umożliwiających przeprowadzanie ataków (tzw. eksploitów). Twórcy modeli starają się wprawdzie zabezpieczyć systemy przed tego typu zapytaniami, ale użytkownicy znajdują nowe sposoby na hakowanie sztucznej inteligencji i omijanie mechanizmów ochronnych.[6],[7] Ominięcie mechanizmów ochronnych pozwala także na automatyczne generowanie treści obraźliwych.

W niektórych systemach, w celu ułatwienia interakcji z aplikacją, wykorzystuje się biblioteki konwertujące zapytania w języku naturalnym na wykorzystywany w silnikach baz danych język SQL. Grupa badaczy przeprowadziła testy popularnych bibliotek wykorzystujących modele typu text-to-sql i w efekcie znalazła podatności umożliwiające wygenerowanie złośliwych zapytań, które mogą doprowadzić do nieautoryzowanego dostępu do danych lub odmowy usługi.[8],[9]

Ataki na sztuczną inteligencję (ang. adversarial attacks) w ogóle, nie tylko na modele językowe, stanowią poważny problem. Problem ten jest szczególnie widoczny w przypadku systemów samochodów autonomicznych – czasem wystarczy przyklejenie na znaku odpowiednio spreparowanej naklejki, aby wprowadzić w błąd systemy wspomagania jazdy, powodując np. pomylenie znaku ograniczenia prędkości ze znakiem stop.[10]

Warto zauważyć, że część systemów sztucznej inteligencji nadaje się wprost do wykorzystania w działalności przestępczej. Techniki umożliwiające wygenerowanie sfałszowanego filmu z twarzą wybranej osoby lub podrobienie wypowiedzi są szeroko dostępne i ich zastosowanie nie wymaga aktualnie poniesienia dużych nakładów finansowych. Interesujące przedstawienie problematyki tzw. Deepfakes zawarto w pracy autorstwa Olgi i Sergiusza Wasiutów.[11] Deepfake mogą być szczególnie groźne, jeśli zostaną wykorzystane w atakach sponsorowanych przez rządy państw np. w celu destabilizacji sytuacji geopolitycznej.

Niebezpieczeństwa związane z upowszechnieniem sztucznej inteligencji zauważają także organy ścigania – dobrym punktem odniesienia są tu dwie publikacje wydane przez Europol[12],[13], publikacja wydana w br. dotyczy ChatGPT a ubiegłoroczna Deepfakes. Obie technologie świetnie się nadają do wspomagania ataków socjotechnicznych – ataki „na wnuczka” mogą w najbliższych latach przybrać nowy wymiar.

Z drugiej strony sztuczna inteligencja, a zwłaszcza techniki analizy obrazów, mogą przyczynić się do podniesienia bezpieczeństwa w przestrzeniach publicznych np. w oparciu o systemy monitoringu wizyjnego. Algorytmy sztucznej inteligencji mogą zostać tu wykorzystane do identyfikacji w czasie rzeczywistym podejrzanych osób lub zachowań. W tej materii trwa dyskusja pomiędzy obrońcami prywatności, a zwolennikami zapewniania bezpieczeństwa publicznego niemal za wszelką cenę. Należy odnotować, że pierwszym krajem w Europie, w którym dopuszczono wspomagane przez AI techniki monitoringu jest Francja. W marcu br. została przyjęta stosowana ustawa[14], a 17 maja Trybunał Konstytucyjny potwierdzi jej zgodność z konstytucją.[15] W argumentacji za przyjęciem ustawy szczególnie podkreślano aspekt zabezpieczenia igrzysk olimpijskich w 2024 roku. Co ciekawe, Francja swoją decyzją wyprzedziła pracę nad legislacjami na forum Parlamentu Europejskiego.[16],[17],[18] Decyzję czy jechać do Francji na olimpiadę każdy musi podjąć sam. Monitoring wizyjny w połączeniu z AI może dać rządzącym niespotykane do tej pory możliwości inwigilacji.

Akty prawne regulujące pewne obszary zastosowań metod sztucznej inteligencji z pewnością powinny powstać, ale należy unikać prób nadmiernej ingerencji w rozwój technologii, jednocześnie zapewniając ochronę swobód obywatelskich. Większość ekspertów jest zgodna, że w centrum wszystkich regulacji powinien stać interes każdego człowieka – regulacje powinny być tworzone w duchu humanizmu. Publikacją szczególnie wartą odnotowania jest whitepaper wydany 1 maja br. przez IBM-a.[19] W dokumencie adresowanym do decydentów przedstawiono zwięzłą prezentację potencjału sztucznej inteligencji oraz założenia, którymi wg. IBM-a warto się kierować przy tworzeniu nowych legislacji. Ramy legislacyjne dla systemów sztucznej inteligencji powinny bazować na ocenach ryzyka. W dokumencie przywołano projekty trzech regulacji opracowywanych niezależnie przez UE, Stany Zjednoczone Ameryki Płónocnej (zalecenia NIST) oraz Singapur. W dokumencie nie wymieniono natomiast zaleceń opublikowanych przez brytyjskie ICO.[20]

Przedstawione do tej pory problemy, to tak naprawdę wierzchołek góry lodowej – najgroźniejsze są te zagrożenia, których jeszcze nie zidentyfikowano i o tym należy również pamiętać formułując ramy prawne.

[1] https://openai.com/research/forecasting-misuse

[2] https://openai.com/blog/march-20-chatgpt-outage

[3] https://openai.com/blog/openai-codex

[4] https://github.com/features/copilot/

[5] https://arxiv.org/abs/2211.03622

[6] https://systemweakness.com/using-chatgpt-to-write-exploits-4ac7119977

[7] https://www.wired.com/story/chatgpt-jailbreak-generative-ai-hacking/

[8] https://arxiv.org/abs/2211.15363

[9] https://thehackernews.com/2023/01/new-study-uncovers-text-to-sql-model.html

[10] https://adversarial-learning.princeton.edu/darts/

[11] https://studiadesecuritate.up.krakow.pl/wp-content/uploads/sites/43/2019/10/2-1.pdf

[12]https://www.europol.europa.eu/publications-events/publications/chatgpt-impact-of-large-language-models-law-enforcement

[13] https://www.europol.europa.eu/media-press/newsroom/news/europol-report-finds-deepfake-technology-could-become-staple-tool-for-organised-crime

[14] https://www.reuters.com/technology/france-looks-ai-powered-surveillance-secure-olympics-2023-03-23/

[15] https://www.conseil-constitutionnel.fr/actualites/loi-relative-aux-jeux-olympiques-et-paralympiques-de-2024-et-portant-diverses-autres-dispositions

[16] https://www.europarl.europa.eu/news/pl/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificial-intelligence

[17] https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206

[18] https://artificialintelligenceact.eu/

[19] https://newsroom.ibm.com/Whitepaper-A-Policymakers-Guide-to-Foundation-Models

[20] https://ico.org.uk/for-organisations/guide-to-data-protection/key-dp-themes/guidance-on-ai-and-data-protection/

Maciej Miłostan