Google DeepMind pokazało robota, który potrafi grać w tenisa stołowego. Robot wyszkolony i napędzany przez algorytmy sztucznej inteligencji prezentuje poziom dobrego amatora i jest w stanie pokonać przeciętnych graczy.
Roboty zadomawiają się w naszym życiu codziennym. W wielu domach już pomagają gotować czy sprzątać. Teraz pokazano robota, który może być partnerem w partyjce w ping-ponga. Nie prezentuje jakiegoś specjalnie wysokiego poziomu, ale jest w stanie pokonać nowicjusza. Poza elementami zabawy i sportu, robot stanowi ważny krok w kierunku osiągnięcia wydajności na poziomie ludzkim pod względem dokładności i szybkości, bo obecne maszyny mają spory problem z szybkim reagowaniem w dynamicznym środowisku.
Badania ukazały się w bazie pre-printów arXiv (DOI: 10.48550/arXiv.2408.03906) i nie zostały jeszcze zrecenzowane przez ekspertów.
Algorytmy DeepMind
DeepMind to firma powiązana z Google i ma spore osiągnięcia w tworzeniu zaawansowanych algorytmów. Kilka lat temu ich program AlphaGo kilkukrotnie rozgromił mistrza gry w Go (więcej na ten temat w tekście: Sztuczna inteligencja ponownie pobiła mistrza Go i przechodzi na emeryturę). Inna z ich sztucznych inteligencji, znana jako AlphaStar, okazała się lepsza od 99,8 proc. graczy w strategicznej grze w czasie rzeczywistym StarCraft II (więcej na ten temat w tekście: Sztuczna inteligencja AlphaStar pokonała 99,8 proc. graczy w StarCraft 2). Co więcej, ich algorytm AlphFold określił prawdopodobne struktury prawie wszystkich znanych nauce białek (więcej w: Sztuczna inteligencja przewiduje kształt prawie każdego znanego nauce białka).
Teraz badacze z DeepMind starają się stworzyć maszynę, która dorównywałaby ludziom pod względem szybkości i wydajności w zadaniach w świecie rzeczywistym. Robot grający w tenisa stołowego stanowi krok w tym kierunku. Tenis stołowy to trudny sport, wymagający od graczy wielu lat treningu, aby osiągnąć zaawansowany poziom. W grze konieczne jest stosowanie złożonych ruchów, szybkiej koordynacji wzrokowo-ruchowej i zaawansowanych strategii, które dostosowują się do mocnych i słabych stron przeciwnika. Te aspekty odróżniają ping-ponga od strategicznych gier, takich jak szachy, Go czy StarCraft II.
Wygląda na to, że badacze z Deep Mind są na dobrej drodze do realizacji założonego celu. Ich robot osiąga wyniki w ping-pongu na poziomie solidnego amatora.
Ping-pong z robotem
Badacze z DeepMind połączyli swoje algorytmy uczenia się do ramienia robota przemysłowego. Wykorzystali sieci neuronowe, która naśladują sposób przetwarzania informacji w ludzkim mózgu, aby stopniowo uczyć się nowych rzeczy.
System został wyszkolony do opanowania określonych aspektów gry. Chodzi tutaj przede wszystkim o zasady gry, ale też o to, jak nadać piłeczce postępową rotację, jak wykonywać serwisy forehandowych lub atakować backhandem. System trenowany był na rzeczywistych i symulowanych danych. Podczas nauki, badacze zbierali dane na temat mocnych i słabych stron oraz ograniczeń algorytmów. Następnie przekazali te informacje z powrotem do systemu, dając mu w ten sposób wyobrażenie o jego umiejętnościach.
W dużym uproszczeniu, system jest połączeniem biblioteki umiejętności z kontrolerem. Biblioteka zawiera różnorodne techniki, z których można skorzystać podczas meczu tenisa stołowego, takie jak serwisy czy ataki. Kontroler wykorzystuje opisy tych umiejętności, zintegrowane z danymi o postępach gry i poziomie umiejętności przeciwnika, aby wybrać tę optymalną, która mieści się w jego możliwościach.
Podczas gry z 29 ludzkimi przeciwnikami system wybierał, których umiejętności lub strategii użyć w danym momencie, biorąc pod uwagę mocne i słabe strony swoje oraz przeciwnika, tak jak zrobiłby to człowiek grający w tenisa stołowego. Robotyczne ramię z algorytmami DeepMind pokonało wszystkich początkujących graczy i nieco ponad połowę średniozaawansowanych graczy, ale zostało zmiażdżone przez zaawansowanych zawodników.
Ramię robota DeepMind miało jednak pewne słabości. Na przykład miało problemy z wysokimi piłkami i atakami backhandem. Częściej stosowało też uderzenia forehandowe.
Źródło: Live Science, IFLScience, fot. Atil Iscen/ YouTube