Sztuczna inteligencja bardziej inteligentna: jak podnieść skuteczność SI i cyberbezpieczeństwa eliminując błędy wynikające ze stereotypów?

15.03.2024

To nie roboty przejmujące kontrolę nad światem ale stereotypy i uprzedzenia są prawdziwym zagrożeniem dla rozwoju sztucznej inteligencji” – mówi John Giannandrea, szef pionu sztucznej inteligencji w Google. Co to oznacza, jak to zagrożenie się objawia i co z tym możemy zrobić? Już 10 kwietnia, o 10:00 przyjdź na webinarium z dr Karoliną Kulicką. Nie zapomnij się zarejestrować!

Page image

Mimo dobrego pomysłu i wielomilionowych budżetów, projekty rozwoju nowych produktów często nie udają się. Przyczyną porażki projektu mogą być niepełne dane treningowe, oparte na stereotypach a nie faktach założenia wstępne czy testy przeprowadzone na zbyt jednorodnej grupie osób. Podczas webinarium, które poprowadzi dr Karolina Kulicka, dowiesz się jak eliminować wpływ stereotypów na dane w uczeniu maszynowym, biometrii oraz cyberbezpieczeństwie, a także:

  • jakie są źródła błędów wynikających ze stereotypów w projektach rozwoju technologii SI,
  • jak rozumieć i stosować pojęcia płeć, rasa, klasa – w uczeniu maszynowym i modelach SI,
  • jakie są przykłady spowodowanych przez stereotypy błędnych algorytmów i jak im zapobiegać.

Zarejestruj swój udział w tym linku.

Dr Karolina Kulicka ukończyła studia doktorskie na Uniwersytecie Stanowym Nowy Jork w Buffalo. Łączy doświadczenie w sektorze prywatnym (szkolenia, consulting), publicznym (m.in. Ministerstwo Nauki i Informatyzacji, UE, ONZ) oraz naukowym (Narodowe Centrum Badań i Rozwoju, NASK). Naukowo zajmuje się równością płci i różnorodnością w zarządzaniu organizacjami, teorią feministyczną oraz tematyką stereotypów w technologiach opartych na sztucznej inteligencji i uczeniu maszynowym. Jej badania zostały nagrodzone m.in.: International Peace Scholarship, Social Impact Fellowship, UB Humanities Institute Fellowship, Outstanding Article Award in Administrative Theory and Praxis.