Dodano: 25 marca 2022r.

Sztuczna inteligencja w kilka godzin zaprojektowała tysiące rodzajów broni chemicznej

Oparty na sztucznej inteligencji zmodyfikowany system wykorzystywany do wyszukiwania nowych leków, zidentyfikował 40 tys. toksycznych dla człowieka związków, które z łatwością można wykorzystać jako broń chemiczną. System potrzebował na to zaledwie sześciu godzin. Eksperyment ten, jak stwierdzili jego autorzy, służy jako ostrzeżenie przed niebezpieczeństwem związanym ze sztuczną inteligencją.

Sztuczna inteligencja

 

W niedawno przeprowadzonych badaniach, których wyniki opublikowano na łamach pisma „Nature Machine Intelligence” (DOI: 10.1038/s42256-022-00465-9), zespół naukowców z Collaborations Pharmaceuticals i King's College London zmienił przeznaczenie systemu sztucznej inteligencji wykorzystywanego do poszukiwania nowych, skutecznych farmaceutyków. Uczeni zmodyfikowali algorytmy tak, by zamiast projektować nowe leki, system identyfikował śmiercionośne związki. Ku zaskoczeniu badaczy, system w ciągu zaledwie sześciu godzin zidentyfikował 40 tysięcy nowych rodzajów broni chemicznej.

Sztuczna inteligencja w służbie złu

Sztuczna inteligencja jest znacznie szybsza niż człowiek. Jej wydajność daleko przekracza ludzką jeśli chodzi o przetwarzania liczb czy wykrywanie związków chemicznych, które można by wykorzystać w medycynie. Jednak jej moc można wykorzystać także do złych celów, chociażby do identyfikowania potencjalnie bardzo niebezpiecznych i śmiercionośnych substancji.

Organizowana co dwa lata przez Swiss Federal Institute for Nuclear, Biological and Chemical Protection konferencja Convergence jest platformą, na której omawiane są nowe osiągnięcia w biologii i chemii. Przed tegoroczną konferencją zwrócono się do zespołu badawczego Fabio Urbiny z Collaborations Pharmaceuticals o przyjrzenie się, a następnie omówienie sposobów niewłaściwego wykorzystania uczenia maszynowego.

Systemy sztucznej inteligencji są wykorzystywane przez większość dużych firm farmaceutycznych do znajdowania nowych leków. Jedną z cech takich systemów jest możliwość odfiltrowania związków, które mogą być toksyczne dla człowieka. Jednak co by się stało, gdyby zmienić przeznaczenie podobnych systemów i przeprogramować je, by działały w odwrotny sposób, by nie poszukiwały leków, ale zabójczych związków?

W ten sposób powstały system sztucznej inteligencji, który miał zidentyfikować niebezpieczne dla ludzi związki chemiczne. Działał jedynie przez sześć godzin, ale w tym czasie wykrył około 40 tysięcy toksycznych dla człowieka związków, które z łatwością można wykorzystać jako broń chemiczną. Model ten został też przeszkolony, by tworzyć różnorakie kombinacje znalezionych związków, dlatego tak wiele potencjalnych broni chemicznych zostało wygenerowanych w tak krótkim czasie.

Ostrzeżenie

Naukowcy trenowali swój system na bazie danych różnych związków chemicznych, instruując SI, że chcieliby uzyskać coś podobnego do środka zwanego VX. To związek z grupy paralityczno-drgawkowych środków bojowych nazywanych związkami V. VX uznawany jest za jeden z najniebezpieczniejszych gazów bojowych. Jego charakterystyczną cechą jest to, że niezwykle łatwo wchłania się przez skórę. Przy pomocy VX zamordowano w 2017 roku Kim Dzong Nama, najstarszego syna przywódcy Korei Północnej Kim Dzong Ila.

Ale niektóre związki znalezione przez przeprogramowaną SI były nawet bardziej toksycznych niż VX. Dlatego autorzy badań trzymają w tajemnicy niektóre szczegóły swoich prac. W ogóle to mieli obawy, czy upublicznić te wyniki. „Odwracając wykorzystanie naszych modeli uczenia maszynowego, przekształciliśmy nasz nieszkodliwy system z przydatnego dla medycyny narzędzia w generator śmiertelnie niebezpiecznych związków” – wyjaśniają naukowcy.

Chociaż żaden z wykrytych związków nie został wytworzony w laboratorium, naukowcy twierdzą, że ich eksperyment służy jako ostrzeżenie przed niebezpieczeństwem związanym ze sztuczną inteligencją - i jest to ostrzeżenie, które ludzkość powinna wziąć pod uwagę. Chociaż do wykonania tego, co zrobił zespół badaczy, potrzebna jest pewna wiedza, to wiele procesów jest stosunkowo prostych i wykorzystuje publicznie dostępne narzędzia.

- Zaskoczyło mnie, jak łatwo to zrobić. Wiele rzeczy, z których korzystaliśmy, jest dostępnych za darmo. Można pobrać zestaw danych dotyczących toksyczności z dowolnego miejsca, a jeśli potrafi się kodować w Pythonie i ma się pewną wiedzę z zakresu uczenia maszynowego, to prawdopodobnie weekend pracy wystarczy, by zbudować coś takiego, jak nasz model sztucznej inteligencji – powiedział Fabio Urbina, główny autor publikacji.

Naukowcy wzywają teraz do „świeżego spojrzenia” na to, jak systemy sztucznej inteligencji mogą być potencjalnie wykorzystywane do złych celów. Mówią, że większa świadomość i ściślejsze regulacje w społeczności naukowej mogą pomóc nam uniknąć niebezpieczeństw, do których mogłyby prowadzić możliwości sztucznej inteligencji.

 

Źródło: The Science Times, Science Alert, fot. CC0, via Wikimedia Commons