Společný výzkum společnosti Kaspersky a belgické univerzity v Gentu ukázal, že roboti mohou od lidí získat citlivé informace. V případě, že si robot získá důvěru lidí, jsou tito uživatelé náchylnější k tomu, aby se nechali robotem přesvědčit k provedení nebezpečných kroků. V určitých situacích může například přítomnost robota mít vliv na ochotu lidí poskytnout přístup do zabezpečených budov.

Svět se rychle blíží k době, kdy bude velká část domácností a průmyslových odvětví spoléhat na automatizaci a používání robotických systémů. Podle některých odhadů se roboti a robotické systémy stanou pro zámožné domácnosti do roku 2040 standardem. Většina z nich je v současné chvíli ve stádiu výzkumu a laboratorních testování, a proto je příliš brzy bavit se o jejich kybernetickém zabezpečení. Výzkum společnosti Kaspersky a univerzity v Gentu ale poodhalil novou rizikovou oblast, která se váže k využívání robotů. Jde konkrétně o sociální vliv, který mohou mít roboti na lidské chování – a s ním spojená potenciální rizika.

Výzkum se zaměřil na vliv speciálních sociálních robotů – robotů, kteří byli navrženi a naprogramováni k přímé interakci s člověkem, k čemuž používají „lidské“ kanály jako je řeč nebo nonverbální komunikace. Do výzkumu se zapojilo 50 dobrovolníků. Za předpokladu, že sociální roboti mohou být hacknuti a tím pádem ovládáni cizím kyberločincem, se výzkum zaměřil na bezpečnostní rizika spojená s roboty. Ti mohou aktivně ovlivňovat své uživatele, aby provedli následující kroky:

  • Získat přístup do jakýchkoliv prostor. Výzkumníci umístili experimentálního robota k zabezpečeným dveřím jedné z multifunkčních budov v centru belgického Gentu. Robot se ptal personálu, zda by je mohl následovat při vstupu do budovy. Do ní se ale smí dostat pouze zaměstnanci, kteří pro vstup musí použít speciální čipovou kartu. I když v průběhu experimentu ne všichni zaměstnanci robotovi vyhověli, celých 40 % z nich nechalo dveře otevřené, aby se robot mohl dostat dovnitř. Ve druhé situaci, kdy byl robot přestrojen za poslíčka s pizzou a držel krabici s logem světoznámé značky rychlého občerstvení, byl pohotově většinou zaměstnanců přijat. Neprojevovali snahu mu nevyhovět a nezpochybňovali jeho nárok na vstup do zabezpečené oblasti.
  • Získat citlivé informace. Ve druhé části experimentu se výzkumníci zaměřili na získání citlivých informací, které by jim mohli být užitečné při resetování hesel (datum narození, značka prvního automobilu, nejoblíbenější barva apod.). Sociální robot měl v tomto případě za úkol vést s účastníky přátelský rozhovor. Výzkumníkům se podařilo získat potřebné informace od všech účastníků až na jednoho. V průměru účastníci prozradili jednu informaci za minutu.

„Na začátku našeho výzkumu jsme se zaměřili na software, který se používá při vývoji robotických systémů. Zajímavé je, že se vývojáři vědomě vyhýbají bezpečnostním mechanismům a místo toho věnují pozornost podpoře efektivity a uživatelské přívětivosti. Jak ale ukázal náš experiment, neměli by ve finální fázi vývoje na zabezpečení zapomenout. Chtěli bychom proto naším společným projektem s univerzitou v Gentu zvýšit veřejné povědomí o této problematice a pobídnout kolegy v oboru, aby se věnovali kybernetickému zabezpečení robotů,“ komentuje Dmitry Galov, bezpečnostní odborník ze společnosti Kaspersky.

„Vědecká literatura dokládá, že důvěra v roboty, a především v sociální roboty, je skutečná a lze ji použít k přesvědčování lidí, aby jednali, jak pachatel chce, nebo aby odhalili určité informace. Funguje přitom přímá úměra – čím lidštější robot je, tím větší má šanci přesvědčit a ovlivnit. Náš experiment prokázal, že tato situace může přinést značná bezpečnostní rizika – lidé mají tendenci nebrat roboty vážně, když jsou laskaví a důvěryhodní. Proto jsme se rozhodli iniciovat a zapojit do diskuze o těchto problémech a rizicích, které nás v blízké budoucnosti čekají,“ doplnil Tony Belpaeme, profesor na univerzitě v Gentu zaměřující se na umělou inteligenci a robotizaci.

Celou studii si můžete přečíst na blogu Securelist.com.