Sztuczna inteligencja

Page image

Zrozumienie natury sztucznej inteligencji oraz podatności procesów uczenia, to wielkie wyzwania współczesnej nauki. Wokół nich koncentrują się nasze badania nad inżynierią mechanizmów uczenia i reprezentacji danych, a także nad wyjaśnialnością modeli (XAI), w tym również modeli generatywnych czy wielkich modeli językowych (LLM). Szczególnie bliskie są nam zagadnienia etyki, ewolucji i bezpieczeństwa AI.

 

AI w Głębokiej Stymulacji Mózgu (DBS) i Traktografia – nasze przełomowe technologie! Celem operacyjnego leczenia choroby Parkinsona jest umieszczenie w mózgu elektrody kompensującej patologiczną nadaktywność obszaru zmienionego chorobowo. Obszar ten jest niewielki i znajduje się głęboko w mózgu, więc główne wyzwanie to jego precyzyjna lokalizacja. Opracowaliśmy technologię, która nie dość, że wskazuje taką właśnie precyzyjną lokalizację miejsca umieszczenia elektrody, to jeszcze skraca czas operacji na otwartym mózgu (z trzech godzin do jednej godziny)!

additional image

Ale to nie wszystko. Operacje neurochirurgiczne wiążą się z ryzykiem, ze względu na delikatną naturę tkanki mózgowej. Planowanie przedoperacyjne ma kluczowe znaczenie. Aby sprostać temu wyzwaniu, opracowaliśmy również wiarygodne modele sztucznej inteligencji, które identyfikują lokalizację elokwentnych obszarów mózgu i prowadzących do nich ścieżek nerwowych.

#Wspomaganie operacji neurochirurgicznych

 

W badaniach nad przetwarzaniem języka naturalnego (#NLProc) poszukujemy nowych, wyjaśnialnych reprezentacji danych językowych, badamy potencjał gramatyki. Szczególnie w zadaniach identyfikacji i klasyfikacji treści nietypowych, trudnych, w tym również szkodliwych (hejt, pornografia, dezinformacja). Stawiamy na modele dopasowane do problemu, a nie tylko modne, maksymalnie wykorzystujące zrozumienie istoty danych, struktur czy stylu tekstu. Mamy sentyment do wydźwięku i całej palety stylów, które dają się ująć w ramy algorytmów. Streszczamy, analizujemy, anonimizujemy. Badamy treści internetowe, dokumenty prawne, język sprzedażowy, styl ChatGPT czy parodie literackie. Tropimy i opisujemy wzorce – jako narzędzie klasyfikacji i jako obiekt lingwistyczny.

#StyloMetrix

#Gramatyczna kamasutra: jak sztuczna inteligencja rozumie podteksty?

 

Biometria i wizja komputerowa to obszary badawcze, które mają u nas długą historię, obejmującą m.in. technologię identyfikacji żywotności  oka. Od kilkunastu lat rozwijamy metody uczenia głębokiego, opracowujemy metody analizy sygnałów i obrazów. Rozwijamy systemy biometrycznej weryfikacji i identyfikacji tożsamości, badamy zagadnienia bezpieczeństwa w biometrii, a w szczególności kontroli autentyczności danych biometrycznych. Nasze technologie, w tym oparte na modelach transformerowych i generatywnych, mogą znaleźć zastosowanie w systemach wykrywania oszustw (deepfake), w systemach monitoringu, urządzeniach i aplikacjach mobilnych.

 

Nauka o danych (danologia) to rozwój algorytmów uczenia maszynowego, optymalizacji globalnej oraz metod heurystycznych. Rozwijamy systemy przetwarzania wielkich zbiorów danych oraz systemy wspomagania decyzji umożliwiające eksplorację danych, ich grupowanie, klasyfikację oraz konstruowanie prognoz. Badamy sieci społeczne i informatyczne, rozwijamy metody analizy powiązań w sieciach, szczególnie koncentrując się na zagadnieniach cyberbezpieczeństwa, dezinformacji i propagacji treści nielegalnych.

 

Pracujemy nad tymi zagadnieniami:

  • Matematyczne podstawy sztucznej inteligencji i analizy danych
  • Wykrywanie i analiza treści szkodliwych w Internecie
  • Przetwarzanie i klasyfikacja dokumentów formalno-prawnych
  • Analiza procesów uczenia maszynowego i inteligencji maszynowej
  • Inżynieria uczenia i reprezentacji danych
  • Bezpieczeństwo, higiena i przejrzystość AI (BHP-AI)
  • Etyka i ewolucja AI
  • Analiza danych multimedialnych
  • Zastosowanie AI w cyberbezpieczeństwie, medycynie, biometrii, humanistyce cyfrowej i badaniach społecznych
  • Humanistyka cyfrowa