Kategorie
#Technologie: Aktualności

SC 21 – hybrydowo w St. Louis

W tym roku, z powodu nieodpuszczającej pandemii, udział PIONIERa w konferencji Supercomputing’21 przybrał formę całkowicie zdalną. Organizatorzy zdecydowali się w tym roku na formułę hybrydową, stacjonarnie impreza odbywa się w Saint Louis, a w wersji online – na całym świecie.

Tytuł tegorocznej edycji prezentacji, seminariów i wykładów towarzyszącej wystawie HPC to „Science and beyond”. Hybrydowa formuła konferencji wyraźnie podzieliła imprezę na stoiska w Convention Center w St.Louis i te, odbywające się na platformie zdalnej. Na to fizyczne, w St. Louis, zdecydował się ICM; wspólne, wirtualne stoisko prezentowało także Konsorcjum PIONIER wraz z PCSS, gdzie prezentowano rozwiązania i projekty z zakresu obliczeń dużej skali.

Tym razem prezentowaliśmy wspólnie technologie kwantowe (zarówno obliczeniowe jak i komunikacyjne), projekty badawcze tworzone wraz z GEANT w ramach chmury EOSC, oraz infrastrukturalne, dotyczące HPC (PRACE-LAB oraz QCG).

Miło także poinformować, że na najnowszej edycji listy TOP500 znalazły się cztery polskie superkomputery:

  • Altair – pozycja 131 – PCSS,
  • Ares – pozycja 267 – ACK Cyfronet AGH,
  • Tryton Plus – pozycja 426 – CI TASK,
  • Prometheus – pozycja 440 – ACK Cyfronet AGH.

Aż trzy z tych systemów działają w ramach projektu PRACE-LAB, będąc częścią infrastruktury przetwarzania danych, charakteryzującą się niespotykaną dotąd w skali kraju mocą obliczeniową na poziomie aż 16 PFLOPS.

Damian Niemir

Kategorie
#Technologie: Aktualności

Internet2 ma 25 lat!

Nasz „sieciowy brat” Internet2 obchodzi 25-lecie swojego istnienia. Wszystko zaczęło się 1 października 1996 roku, kiedy 34 wiodące uniwersytety w USA ustanowiły projekt o nazwie Internet2 w celu szybkiego rozwoju sieci na potrzeby badań i edukacji. W końcu roku Internet2 liczył już 80 uniwersytetów i jednostek naukowych, by obecnie skupiać 314 uniwersytetów i wielu innych partnerów.

W 1997 roku Internet2 (University Corporation for Advanced Internet Development (UCAID)) przekształcił się formalnie w organizację non profit. W tym też roku powstała koncepcja GigaPoPs’ów (Giga Points-of-Presence), które na sieci vBNS tworzyły sieć kręgosłupową. Dwa lata później powstała sieć Abilene (13 tysięcy mil, 2,4 Gbps). Jednak przełomowym rokiem stał się rok 2001, gdy podczas wirtualnej konferencji Internet2, zaprezentowano koncepcję programu NSF o nazwie Cyberinfrastructure. W efekcie tego programu w 2004 roku, sieć Abilene została rozbudowana z 2,4 Gbps do 10 Gbps. Równocześnie powstała sieć National Lambda Rail (10 Gbps Ethernet). Po roku 2001 miało początek także wiele inicjatyw budowy regionalnych sieci optycznych, które zostały partnerami Internet2. Równolegle, rodzą się inicjatywy rozwoju oprogramowania usług sieci (tzw. Middleware). W roku 2010 Internet2 uruchomił pierwsze fragmenty sieci działające z szybkością 100Gbps, a w roku 2012 również regionalne sieci optyczne udostępniły na drugiej warstwie połączenia Ethernet 100Gbps do obsługi SDN i Science DMZ. Dynamicznie rozwijały się też usługi wideokonferencji i transmisji o bardzo wysokiej rozdzielczości (4K i 8K). Internet2 podjął także ważne działania w zakresie globalizacji sieci: w 2014 roku powstało, we współpracy z NORDUnet i SURFnet, transatlantyckie połączenie (ANA-100 G), które w 2017 roku zwiększyło przepustowość do 740 Gbps. Ważnym działaniem była także integracja InCommons z eduGAIN (2016 rok). W 2019 roku Internet2 udostępnił produkcyjnie, dla nauki i edukacji, usługi dostępu do komercyjnych chmur obliczeniowych.

Obecnie Internet2 realizuje program Internet2 Next Generation, w ramach którego sieć kręgosłupowa jest modernizowana do połączeń 400 Gbps i nx400 Gbps.

Ciekawe jest jak nasza historia splata się z historią Internet2. W 1999 roku, na spotkaniu partnerów Internet2 w Waszyngtonie, zaprezentowana została nasza sieć POL-34/155, a w 2000 roku zostaliśmy oficjalnie międzynarodowym partnerem Internet2, podpisując MoU (Memorandum of Understanding). Partnerów tych było wówczas 38 a obecnie jest ich 77. W tym czasie (29.06.2000) Komitet Badań Naukowych ogłosił program rozwoju infrastruktury informatycznej nauki PIONIER. W efekcie tego projektu, w październiku 2003 roku oddaliśmy do użytku pierwszy fragment (2648km) sieci DWDM/Ethernet 10 Gbps. Piszemy o tym szerzej w dzisiejszym numerze. Kontakty przedstawicieli PIONIERa z Internet2 były bardzo intensywne. Braliśmy udział w jego posiedzeniach, prezentując postępy w budowie sieci PIONIER. Mamy również swój udział w różnych inicjatywach Internet2, np. perfSONAR czy „The Quilt” – konsorcjum 15 RON. Uczestniczyliśmy w konsultowaniu architektury sieci 100Gbps z partnerami przemysłowymi (CISCO, Juniper) zarówno Internet2 jak i PIONIERa.

Obecnie sieć PIONIER poprzez swoją infrastrukturę w CERN, podłączenie do usługi GÉANT Open w Londynie oraz usługi GLIF w Amsterdamie posiada dynamiczne możliwości zestawiania kanałów i usług do sieci Internet2.

Na koniec warto zacytować wypowiedź Steve’a Wolff’a – dyrektora technologicznego Internet2, który podczas jednego ze spotkań przekonywał, że “żaden NREN nie jest samotną wyspą”, tłumacząc, że obecne trendy w technologiach sieciowych wymagają globalnych rozwiązań – łączenia różnych sieci, wielu zasobów, w jeden światowy organizm – GREN, Global Research and Education Network. W erze, kiedy programowalne jest niemal wszystko, od komputerów, poprzez sieci, po bazy dużych ilości danych, istnieje potrzeba nowego spojrzenia, czym sieci naukowe być powinny. Nowe modele funkcjonowania NREN, poza rozbudową infrastruktury, muszą uwzględniać potrzeby użytkowników do korzystania z usług w sposób globalny, bez podziału na osobne sieci; serwisy, systemy, a przede wszystkim dane, a coraz częściej postrzegane jako zasoby znajdujące się bezpośrednio za ekranem osobistego komputera. Drogą do tej nowej, globalnej sieci naukowej, ma być skupienie uwagi na jeszcze większej współpracy pomiędzy społecznościami sieciowymi, takimi jak np. Internet2.

O 25-letniej historii Internet2 możecie Państwo przeczytać na portalu organizacji pod adresem

https://internet2.edu/community/internet2-25-years/internet2-timeline/#2021

Katarzyna Siudzińska

Kategorie
#Technologie: Aktualności

Konferencja online, choć klimat całkiem realny

Aż pięć dni – zamiast zwyczajowych trzech – trwała tegoroczna konferencja TNC, pod wieloma względami różniąca się od poprzednich edycji. Po pierwsze, z powodu pandemii, która spowodowała odwołanie ubiegłorocznej edycji, TNC21 odbywało się całkowicie online. Po drugie, zarejestrowało się na nią ponad 1200 osób! Absolutny rekord, nie jedyny zresztą podczas TNC, w której połączono ze sobą dwa studia telewizyjne – siedzibę GÈANTa w Amsterdamie oraz studio PCSS w Poznaniu.

Wersja online konferencji spowodowała, że stała się ona zdecydowanie bardziej dostępna. 1224 użytkowników ze 105 krajów obserwowało i brało czynny udział w 5-dniowych sesjach TNC21. Platforma online, którą wybrali organizatorzy, była bardzo dobrze dobrana do potrzeb wydarzenia. Prostota użytkowania, połączenie swobodnego komunikatora z bazą uczestników i programem konferencji spowodowało, że w jej trakcie odbyło się ponad 6 tysięcy spotkań i rozmów.

Jak chwalił się Erik Huizer, CEO GÈANTa podczas sesji zamykającej konferencję jej „niemobilna” wersja pozwoliła zaoszczędzić aż 2,5 miliona kilometrów podróży, co przełożyło się wprost na 30 tysięcy zaoszczędzonych kilogramów dwutlenku węgla. Z tego byłby całkiem duży las, bo w statystykach konferencji pojawił się przelicznik na 11 tysięcy drzew…

Nie o samych liczbach na koniec TNC. Sesje plenarne, będące połączeniem technik telewizyjnych i nowoczesnych rozwiązań wideokonferencji (sercem połączeń VC był rozwijany w ramach GÈANTa we współpracy z PCSS – eduMeet) spowodowały, że udało się zachować klimat znany ze stacjonarnych edycji konferencji. „Wsparcie, wiedza techniczna i kreatywność sprawiły, że było to niezwykłe doświadczenie, które było jak najbardziej zbliżone do spotkania na żywo” – podkreślał Huizer.

Pod względem technicznym wyzwanie stanowiło stworzenie ad hoc studia telewizyjnego w siedzibie GÈANTa w Amsterdamie i spięcie go ze studiem w PCSS. Specjalnie zestawiona sieć pozwoliła dzięki nowoczesnym rozwiązaniom zwirtualizować infrastrukturę w taki sposób, by zarówno ściany LED w obu studiach, będące interaktywnym tłem, monitory odglądowe jak i całe udźwiękowienie mogło być sterowane z centrum w Poznaniu z ultraniską latencją. To z PCSS bowiem cały sygnał trafiał na platformę konferencji w postaci streamingu. Ostatecznie poczucie dla producentów z PCSS było takie, jakby obsługiwali zdalne studio w „pokoju obok”, mając pod kontrolą każdy element audiowizualnej układanki.

To, co można było zobaczyć oczami uczestników jest już dostępne na oficjalnej stronie konferencji TNC: https://tnc21.geant.org/recordings/. To, co było przedmiotem jednej z ostatnich sesji, pokazującej kamery spoza oficjalnego przekazu można zobaczyć na specjalnych, krótkich filmach „Behind the Scenes”, do których obejrzenia serdecznie zapraszam.

 

 

I co prawda konferencja online to nigdy nie to samo, co spotkanie w rzeczywistości (do którego tęsknią także sami organizatorzy zapraszając na edycję TNC22 do włoskiego Trieste), to jednak, jak podkreślało wielu uczestników, „mimo że na własnej kanapie – to jednak nadal to było właśnie to TNC, które dobrze znają.”

 

 

Damian Niemir

Kategorie
#Technologie: Aktualności

Sercem Centrum Kompetencji STOS będzie “bunkier”

Z prof. dr. hab. inż. Henrykiem Krawczykiem, dyrektorem CI TASK, o postępach w pracy oraz możliwościach nowoczesnej przestrzeni, rozmawia Magdalena Baranowska-Szczepańska.

Magdalena Baranowska-Szczepańska (M.BS.): Pół roku temu rozpoczęła się budowa nowego Centrum Kompetencji STOS (Smart and Transdisciplinary knOwledge Services), które będzie częścią działającego na uczelni Centrum Informatycznego Trójmiejskiej Akademickiej Sieci Komputerowej (CI TASK). Obiekt ma być gotowy w połowie 2022 r. Koszt przedsięwzięcia to blisko 156 mln zł. Na jakim etapie są prace? 

Prof. dr hab. inż. Henryk Krawczyk (H.K.): Aktualnie wykonane są główne prace ziemne (wykopy do 16 m głębokości) zarówno pod częścią A (budynek administracyjny i laboratoria) jak i pod częścią B (serwerownie). Z pracami budowlanymi wychodzimy na „powierzchnię”. To oznacza, że fundamenty, ściany garażu i serwerowni oraz stropy  nad nimi  są  już w zasadzie ukończone.  Załączone fotografie dobrze oddają postęp robót.

 

M.BS.: Sercem inwestycji będzie „bunkier”, podziemna serwerownia, spełniająca wymagania bezpieczeństwa i niezawodności, do przetwarzania i długoterminowego przechowywania danych. Czy może nam Pan Profesor uchylić rąbka tajemnicy i powiedzieć coś więcej na temat tych najwyższych standardów bezpieczeństwa, które zostaną tam zastosowane?

H.K.: „Bunkier” to nazwa specjalnej serwerowni odpornej między innymi na działanie fal elektromagnetycznych. Wbudowane mechanizmy ochrony mają zminimalizować fizyczną utratę danych. Dodatkowo zdublowana jest infrastruktura wspomagająca funkcjonowanie serwerów danych. To zapewnia ciągły dostęp do danych oraz niezawodne ich przetwarzanie. Cały budynek serwerowni (z ograniczonym dostępem) spełniać będzie wymagania bezpieczeństwa poziomu TIER III/IV, zgodnie ze standardami określonymi przez Uptime Institute. Dodatkową ciekawostką jest wykorzystanie do zasilania zarówno prądu stałego jak i zmiennego, a także inteligentnych systemów chłodzenia cieczą i gaszenia parą.

M.BS.: Centrum ma odpowiadać na stale rosnące zapotrzebowanie na realizację prac badawczo-rozwojowych wymagających dużych obliczeń, przetworzenia lub zarchiwizowania ogromnych zbiorów danych. Ale to nie wszystkie zadania, które realizowane będą w Centrum. Jakie jeszcze stawiane będą wyzwania przed tym inteligentnym obiektem?

H.K.: Oprócz gromadzenia i udostępniania danych transdyscyplinarnych głównym problemem będzie budowa i wykorzystanie  usług typu SMART. Jest to skrót podkreślający cechy oferowanych usług: Samodoskonalące się; Maksymalnie wydajne i bezpieczne; Analizujące Big Data; Rozwijające nową wiedzę; Tworzone pod potrzeby użytkowników. Poza tym zakłada się zintegrowane wykorzystanie nowoczesnych technologii: Big Data, Cloud Computing oraz Internet of Things (IoT) oraz Artificial Inteligence (AI). Umożliwiają one zarówno dostęp do rozproszonych źródeł danych jak też selekcję wartościowych informacji oraz efektywne wydobywanie użytecznej wiedzy dla potrzeb nauki i gospodarki.

Magdalena Baranowska-Szczepańska