Jak AI zdaje test na inteligencję?
IoT 13 lutego 2024 5 minut czytania

Jak AI zdaje test na inteligencję?

Coraz częściej pracujemy, wykorzystując roboty i zaawansowane technologicznie maszyny bazujące na sztucznej inteligencji. AI nam podpowiada, wspiera, a czasem nawet za nas myśli. Jej potencjał odkryli również cyberprzestępcy. Jakie zagrożenia niesie za sobą, co musimy o niej wiedzieć i czym może nas w przyszłości zaskoczyć?   

Sztuczna inteligencja nie jest technologią przyszłości, lecz teraźniejszości. Jest powszechnie wykorzystywana i komercjalizowana, a sam temat jest aktualnie niezwykle modny. Eksperci rokują jej wspaniałą przyszłość i zapowiadają wielkie zyski gospodarcze, do których ma się przyczynić. Wydaje się, że dziś każdy inwestuje w AI (ang. artificial intelligence). Według badań IDC na całym świecie wydatki rządów i biznesu na technologię sztucznej inteligencji wyniosą w 2024 roku 500 miliardów dolarów.

Sztuczna inteligencja (SI) jest obecna na wszystkich polach. Z badań Siemensa wynika, że przed końcem obecnej dekady fabryki będą mogły zarządzać swoją produkcją jedynie za pomocą narzędzi korzystających ze sztucznej inteligencji. W niektórych miejscach dzieje się to już dziś. AI wspiera m.in. wytop miedzi w hucie „Głogów”. 

Mechanizmy sztucznej inteligencji uczą się i skutecznie przetwarzają dane na temat rynku. Tak sprofilowany przekaz wspiera działania sprzedawców w branży e-commerce, a przedsiębiorstwa mogą na niego reagować, dostosowując do potrzeb użytkowników konkretne towary lub usługi.

Firma Gartner wskazuje natomiast, że adaptacyjne systemy AI stale przekwalifikowują swoje modele inteligencji. Zdobywają wiedzę w środowiskach runtime na podstawie nowych danych, dzięki czemu szybko dostosowują się do nieprzewidzianych okoliczności w świecie rzeczywistym.

AI – jakie zagrożenia niesie sztuczna inteligencja?


Tempo wykorzystania sztucznej inteligencji zaczyna budzić niepokój. Pojawiają się pytania o to, kto będzie odpowiadał za jej potknięcia – szczególnie te kosztowne. Zastanawiamy się też, jak prawnie zabezpieczyć się przed awariami, hackerami i wpadkami związanymi z AI.

Warto pamiętać, że sztuczna inteligencja już nas zaskakiwała. W 2016 roku humanoid Promobot IR77 uciekł z laboratorium w Permie. Nie powiodły się próby naprawienia go, dlatego w końcu trafił do utylizacji.

Co nas jeszcze czeka? Zdaniem profesora informatyki i inżynierii Pedro Domingosa do 2030 roku każdy będzie mógł stworzyć swojego cyfrowego sobowtóra. Ian Pearson twierdzi natomiast, że do 2050 roku powszechne będzie utrzymywanie kontaktów seksualnych z robotami. Prawdopodobne jest również wykorzystywanie humanoidów do rozwiązywania konfliktów zbrojnych. Stephen Hawkins i Elon Musk, wielokrotnie podkreślali, że sztuczna inteligencja stanowi poważne zagrożenie dla ludzkości i może doprowadzić do jej wyginięcia. 

Sztuczna inteligencja jest już wśród nas. Fundacja Digital Poland podaje, że pod względem liczby ekspertów pracujących nad rozwojem lub wdrożeniem AI Polska zajmuje 7. miejsce wśród krajów UE i pierwsze w regionie Europy Środkowo-Wschodniej.

Równe prawo dla sztucznej inteligencji


Naturalnym następstwem wzrostu popularności AI jest potrzeba utworzenia specjalnych rozwiązań prawnych. To ważne szczególnie dla tych systemów nazywanych systemami „silnej sztucznej inteligencji” i rozumianych jako mechanizm zdolny do całkowicie samodzielnego myślenia.

19 lutego 2020 roku Komisja Europejska wydała Białą Księgę w sprawie sztucznej inteligencji, gdzie określono mechanizmy minimalizowania różnego rodzaju ryzyk. To jednak nadal za mało.

Z wykorzystywaniem AI wiąże się także problem odpowiedzialności za szkody. Czy winna jest osoba, która kupiła i zainstalowała narzędzie z SI, czy może jego twórca? 

Pojawiają się również inne kwestie, m.in. związane z prawami autorskimi i prawem do prywatności w przypadku systemów biometrycznych. Czy należy informować ludzi, jeśli są narażeni na kontakt ze sztuczną inteligencją? A może systemy, które mogą mieć znaczący wpływ na życie ludzi, powinny zostać poddane dodatkowej kontroli i znaleźć się w publicznie dostępnej bazie danych? 

AI – nowa broń hackerów


Zanim zostaną uregulowane kwestie prawne, minie sporo czasu. Tymczasem z „bezprawia” korzystają przestępcy. Sztuczna inteligencja już stała się bronią hakerów. Firmy tracą rocznie 5,7 biliona dolarów w wyniku oszustw cyfrowych. 

I tak – cyberprzestępcy chętnie sięgają po model języka głębokiego uczenia GPT-3. W ten sposób mogą łatwo uruchomić masowe kampanie phishingu typu „spear phishing” polegające na wysyłaniu spersonalizowanych wiadomości.

Co ciekawe, wiadomości phishingowe generowane przez sztuczną inteligencję mają w rzeczywistości wyższy wskaźnik generowania ataków niż te spreparowane ręcznie. 

Sztuczna inteligencja potrafi także naśladować konwersację. Zarówno transfer stylu głosu, jak i deepfake (fałszywe zdjęcie lub film przedstawiający osobę czy wydarzenie) należą do bardzo realnych cyberzagrożeń.

Pierwszy udokumentowany atak tego typu wydarzył się pięć lata temu. Oszuści wykorzystali wtedy konwersję głosu, by podszyć się pod prezesa brytyjskiej firmy energetycznej i poprosić o pilny przelew środków. W ten sposób firma straciła prawdopodobnie 240 mln dolarów.

Rok później kolejna grupa oszustów wykorzystała tę samą technologię do naśladowania głosu klienta, aby przekonać menedżera banku do przekazania im 35 milionów dolarów.

Nie trzeba jednak mieszać w to hackerów, aby pokazać, jak czasem ryzykowne może być wykorzystanie AI. Przekonały się o tym holenderskie władze. System sztucznej inteligencji błędnie twierdził, że około 26 tysięcy rodziców złożyło fałszywe wnioski o świadczenia z tytułu opieki nad dziećmi. Oskarżenia doprowadziły do trudności wielu biednych rodzin, a także do dymisji holenderskiego rządu w 2021 roku.

AI ma jednak drugie oblicze, które wspiera walkę z cyberprzestępcami. Uczenie maszynowe, przetwarzanie języka naturalnego i sieci neuronowe mogą pomóc w odróżnieniu rzeczywistych sygnałów o zagrożeniu od szumu informacyjnego.

Wykorzystując rozpoznawanie wzorców, analizy predykcyjne i behawioralne, sztuczna inteligencja może pomóc identyfikować i odpierać ataki oraz automatycznie wykrywać nieprawidłowe zachowanie użytkownika, alokację zasobów sieciowych lub inne anomalie. Przy czym jej przydatność dotyczy zarówno zabezpieczenia architektury lokalnej, jak i korporacyjnych usług chmurowych.

Rozwiązania bazujące na SI, analizując dostępne dane i identyfikując wzorce, pozwalają wykrywać zagrożenia przed ich wystąpieniem. W ten sposób mogą zminimalizować prawdopodobieństwo utraty lub zniszczenia cennych danych i aktywów. 

Sztuczna inteligencja potrzebuje energii


Kolejnym ciekawym aspektem związanym z AI jest jej zapotrzebowanie na energię. Do 2025 roku sztuczna inteligencja będzie zużywać więcej energii niż ludzka siła robocza. Ponieważ staje się coraz bardziej wszechobecna i wymaga bardziej złożonych modeli uczenia maszynowego, zużywa więcej danych i zasobów obliczeniowych, a w konsekwencji także prądu. Zapotrzebowanie na energię jedynie dla AI może stanowić do 3,5 proc. globalnego zużycia prądu do 2030 roku. 

Obecnie firmy są pod presją zmniejszenia swojego śladu węglowego i zminimalizowania wpływu na środowisko. Pod tym względem wyścig o przyjęcie i czerpanie korzyści z AI może być przeszkodą. Algorytmy sztucznej inteligencji – a także cała infrastruktura potrzebna do ich obsługi i dostarczania, taka jak sieci w chmurze i urządzenia brzegowe – wymagają coraz większych zasobów. 

Trzecia światowa rewolucja


Sztuczna inteligencja jest już wśród nas. Polska bardzo przykłada się do jej rozwoju. Fundacja Digital Poland podaje, że pod względem liczby ekspertów pracujących nad rozwojem lub wdrożeniem sztucznej inteligencji Polska zajmuje siódme miejsce wśród krajów Unii Europejskiej i pierwsze w regionie Europy Środkowo-Wschodniej.

AI prowadzi samochody, rozpoznaje obrazy, rozumie języki i steruje złożonymi maszynami przemysłowymi. Naukowcy twierdzą, że dzięki niej świat zmieni się diametralnie, tak jak się to stało po rewolucji rolniczej, a później przemysłowej.

– Nastawienie społeczeństwa do rozwiązań z zakresu AI ma zasadnicze znaczenie dla rozwoju i upowszechnienia tych technologii. Brak społecznej akceptacji może się wiązać z obawami względem technologii AI i prowadzić do oporu w jej wdrażaniu i stosowaniu. Społeczna akceptacja zmniejsza obawy, a to z kolei może prowadzić do mniejszego oporu w stosowaniu jej w różnych dziedzinach życia – zauważa dr hab. Dominik Batorski, ICM Uniwersytet Warszawski, członek zarządu Sotrender.

W podejściu do AI dominuje tolerancja i akceptacja (85 proc.), a zdecydowany sprzeciw wobec tej technologii deklaruje jedynie co siódmy badany. Ciągle jest więcej optymistów (56 proc.) niż sceptyków (23 proc.) cyfryzacji i nowych technologii. Z drugiej strony, aż 64 proc. badanych twierdzi jednak, że technologia tworzy sztuczny świat, a 54 proc. zgadza się ze stwierdzeniem, że rozwój robotyki i sztucznej inteligencji jest zagrożeniem dla miejsc pracy.

Dlatego warto traktować sztuczną inteligencję jako szansę na rozwój, na pojawianie się nowych kreatywnych zawodów – paradoksalnie z większym udziałem człowieka, a dzięki temu bardziej angażujących w pracę.

Sprawdź raport „Technologia w służbie społeczeństwu. Czy Polacy zostaną społeczeństwem 5.0?”.

Masz pytania? Wypełnij formularz. Nasz zespół ekspertów służy pomocą.

Popularne tagi

Mogą Cię również zainteresować

  • M2M mówi do rzeczy

    M2M mówi do rzeczy
    M2M mówi do rzeczy
    IoT 21 października 2024

    IoT

    Dzięki komunikacji M2M maszyny mogą wymieniać między sobą informacje, a także koordynować i podejmować działania bez potrzeby angażowania ludzi. W […]

  • Smart grid – czym jest inteligentna sieć elektroenergetyczna?

    Smart grid – czym jest inteligentna sieć elektroenergetyczna?
    Smart grid – czym jest inteligentna sieć elektroenergetyczna?
    IoT 9 października 2024

    IoT

    Wraz z rosnącym zapotrzebowaniem na energię elektryczną rośnie również konieczność budowy bardziej efektywnych systemów dystrybucji. Z tej potrzeby wyłoniła się […]

  • Sieci LoRaWAN – czy są bezpieczne?

    Sieci LoRaWAN – czy są bezpieczne?
    Sieci LoRaWAN – czy są bezpieczne?
    IoT 16 kwietnia 2024

    IoT

    Do stworzenia inteligentnego miasta konieczna jest sieć, która nie tylko zapewnia połączenia, ale również umożliwia przyszłą rozbudowę infrastruktury. Sieci LoRaWAN […]

  • Wideo. Wdrożenia Orange w jednostkach samorządu terytorialnego

    Wideo. Wdrożenia Orange w jednostkach samorządu terytorialnego
    Wideo. Wdrożenia Orange w jednostkach samorządu terytorialnego
    IoT 18 marca 2024

    IoT

    Polskie miasta i gminy stawiają na rozwój, usprawnienia i jak najwyższy komfort mieszkańców. Nowoczesne technologie pomagają osiągnąć te cele. W […]