Британская компания StatusToday, которая занимается разработками в области кибербезопасности, придумала самообучаемую систему компьютерного мониторинга для интеллектуального наблюдения за сотрудниками любой организации.
Нейронная сеть проследит за «офисным планктоном»

Тревожные новости для любителей отлынивать от работы! Заниматься прокрастинацией и другими привычными вещами теперь не позволит искусственный интеллект. Компьютерная система, разработанная англичанами, обучается на примере данных о ежедневной работе сотрудников и их взаимодействии между собой в рамках отдельно взятой организации. Нейронная сеть собирает информацию о работе с файлами, программами, а также данные системы контроля доступа.

Таким образом система наблюдает за повседневным поведением сотрудников и с помощью алгоритмов машинного обучения составляет модель рабочего дня каждого сотрудника организации. Если он вдруг совершит необычное действие, например проникнет в помещение, где никогда не бывал, попытается скопировать на внешний носитель или отправит на посторонний электронный адрес служебную информацию, алгоритм сообщит об этом службе безопасности.

Нейронная сеть также является эффектным инструментом сбора информации для анализа производительности труда. Система следит за тем, чтобы сотрудники не использовали сторонние приложения на рабочих компьютерах, не скачивали медиафайлы и вообще не отвлекались от работы. Однако некоторые эксперты по кибербезопасности подвергли систему мониторинга за сотрудниками вполне обоснованной критике.

К примеру, непонятно, как алгоритм будет справляться с ложными срабатываниями. Любой сотрудник может довольно редко использовать некоторые программы или посещать какие-либо комнаты, и тогда они не попадут в стандартную модель его поведения. В таком случае алгоритм будет поднимать тревогу, хотя работник не совершает ничего противоправного. Возможно, самообучаемая программа будет это учитывать.

Кроме того, скрытое наблюдение за сотрудниками является незаконным, а если работодатель заранее предупредит всех о внедрении компьютерной системы мониторинга, сотрудники могут на этапе обучения алгоритма умышленно совершать подозрительные действия, чтобы затем не привлекать к этому внимания искусственного интеллекта.