Sygnały instrumentalne uzyskane dla złożonych próbek posiadają duży zasób informacji. W efekcie, bardzo kłopotliwe staje się analizowanie złożonych danych eksperymentalnych bez użycia technik statystycznej analizy wielowymiarowej takich jak metoda głównych składowych (z ang. Principal Component Analysis, PCA). W standardowych zastosowaniach metoda PCA jest używana do kompresji danych poprzez porządkowanie informacji wg. malejącej wariancji, modelowania i wizualizacji struktury danych, określania ilości chemicznie/fizycznie interpretowalnych składowych, redukcji poziomu szumów w danych.
Zapraszamy na warsztaty szkoleniowe dla młodych pracowników naukowych na temat efektywnych metod przygotowywania i składania artykułów do publikacji w czasopismach o wysokiej punktacji. Warsztaty poprowadzi prof. Mirosław Skibniewski. Podczas warsztatów zostaną omówione następujące zagadnienia:
Analiza szeregów czasowych jest ważną dziedziną inżynierii danych. W ramach seminarium przedstawiamy metodę statystyczną przeznaczoną do analizy szeregów czasowych, przy założeniu, że szeregi te naśladują jakąś postać złożonego układu fizycznego. W metodzie wykorzystuje się wykres rekurencyjny i wykładnik Hursta. Dotychczas metoda ta była wykorzystywana do danych związanych z dynamiką molekularną i obserwacjami klimatu (temperatury). Dlatego nasza metoda porusza bardzo ważny problem zmian klimatycznych.
Przewidywanie interakcji między lekami a celami farmakologicznymi (białkami) jest jednym z najbardziej znanych zastosowań uczenia maszynowego w przemyśle farmaceutycznym. Z teoretycznego punktu widzenia zadaniem jest przewidywanie nieznanych powiązań (links) w grafie dwudzielnym (bipartite graph). W porównaniu ze standardową predykcją powiązań, w przypadku predykcji interakcji lek-cel, dodatkowo dostępne są informacje takie jak podobieństwo między parami leków lub parami białek.
Matyas Koniorczyk, Wigner Research Centre for Physics
Data:
06/02/2023 - 11:00
Abstrakt:
W ramach wystąpienia krótko podsumowany zostanie stan techniki optymalizacji z wykorzystaniem QUBO (ang. Quadratic Unconstrained Binary Optimization). Podsumowanie zawierać będzie przegląd najważniejszych wyników badań operacji klasycznych, najnowsze osiągnięcia rozwoju solwerów klasycznych. Przedstawione zostanie również subiektywne spojrzenie na linię kwantową, ze szczególnym uwzględnieniem komputerów firmy DWave.
W ramach seminarium poprowadzona zostanie druga część wykładu z zakresu automatów klasycznych i kwantowych. Po przedstawieniu kilku przykładów DFA wraz z dyskusją ich ograniczeń, wprowadzamy ich warianty probabilistyczny i kwantowy. Przedstawiamy reprezentatywny algorytm dla każdego z tych wariantów, a następnie dyskusję na temat zalet kwantowych w ustawieniach automatów skończonych. Krótko omawiamy ostatnie implementacje algorytmów QFA na rzeczywistym sprzęcie kwantowym.
Rozpoczynamy od omówienia problemów obliczeniowych i algorytmów. Definiujemy ogólną postać problemów decyzyjnych, a następnie wprowadzamy deterministyczny automat skończony (DFA) jako podstawowy decydent. Po przedstawieniu kilku przykładów DFA wraz z dyskusją ich ograniczeń, wprowadzamy ich warianty probabilistyczny i kwantowy. Przedstawiamy reprezentatywny algorytm dla każdego z tych wariantów, a następnie dyskusję na temat zalet kwantowych w ustawieniach automatów skończonych. Krótko omawiamy ostatnie implementacje algorytmów QFA na rzeczywistym sprzęcie kwantowym.
Tematyka referatu dotyczy innowacyjnego podejścia w przygotowaniu danych stosowanych do trenowania konwolucyjnych sieci neuronowych w zakresie segmentacji kolorowych obrazów. Problem doboru danych trenujących oraz pozyskania ich wystarczającej ilości, niezbędnej do uzyskania modelu o jak najwyższej precyzji predykcyjnej, jest istotnym zagadnieniem w tematyce sieci neuronowych. Nieprawidłowe podejście do niego może sprawić, że nawet najlepiej przygotowana architektura sieci, nie będzie w stanie wygenerować modelu, który będzie działał z satysfakcjonującą dokładnością.
Gilbert zaproponował iteracyjny algorytm wyznaczania odległości między danym punktem a zbiorem wypukłym. Stosujemy algorytm Gilberta z kilkoma modyfikacjami i uproszczeniami, aby uzyskać górne ograniczenie na odległość Hilberta-Schmidta między danym stanem a zbiorem stanów separowalnych. Chociaż odległość Hilberta-Schmidta nie jest właściwą miarą splątania, to jednak może być stosowana jako bardzo dobry wskaźnik ilości splątania.
Katarzyna Gawlak, Wydział Transportu i Inżynierii Lotniczej, Politechnika Śląska
Data:
03/03/2022 - 11:00
Abstrakt:
Innowacyjność i poszukiwanie nowych rozwiązań jest kluczowym elementem ciągłego doskonalenia systemów zarządzania bezpieczeństwem przewoźników kolejowych. Z tego względu wspieranie posiadanych systemów rozwiązaniami informatycznymi daje szerokie i zupełnie nowe możliwości prezentacji i analizy danych gromadzonych w różnych obszarach funkcjonowania spółek kolejowych. Taka sytuacja ma miejsce między innymi w przypadku informacji dotyczących zdarzeń i wydarzeń zaistniałych na sieci kolejowej.