Один миллиард общедоступных фотографий в Instagram был использован для тренировки алгоритма, созданного Facebook, чтобы научить его распознавать изображения самостоятельно.

Традиционно алгоритмы обучались на наборах данных, которые уже были классифицированы людьми, — например, как изображения кошек, собак или цветов.

Но фотографии из Instagram были представлены алгоритму без маркировки.

Впоследствии он смог правильно идентифицировать изображения с точностью 84,5%, сообщает Facebook.

Разработчики назвали свою систему Seer (сокращение от self-supervised).

Эксперт по ИИ Калум Чейз (Calum Chase) заявил, что она «может стать важным шагом на пути к святому Граалю умных компьютеров», если окажется эффективной в долгосрочной перспективе.

Есть и другие фирмы, которые также работают над аналогичными процессами.

Представитель Facebook сообщил, что, хотя этот вид техники уже имел успех в алгоритмах обработки языка, изображения представляют собой более сложную проблему, поскольку отдельные слова легче идентифицировать, чем разные части картинки — программе трудно определить, какая часть рисунка или фото является деревом или животным, когда одна иллюстрация может содержать и то, и другое, и они могут находиться близко друг к другу.

«В этом случае алгоритм должен решить, какой пиксель принадлежит какой концепции. Более того, одна и та же концепция будет сильно различаться между изображениями, например, с кошкой в ​​разных позах или при просмотре под разными углами», — сообщается в блоге компании.

Сотрудник Facebook добавил, что возможность обучать алгоритмы на огромных наборах данных, которые не были сначала классифицированы людьми, также может помочь в борьбе с программами, демонстрирующими предвзятость.

Это связано с тем, как закрадывается предвзятость — например, женщины с большей вероятностью будут отмечены по их физическим характеристикам, таким как волосы или улыбка, в то время как мужчины будут отмечены словами «официальный» и «деловой», — когда они классифицируются людьми.

Профессор Сандра Вахтер (Sandra Wachter) из Оксфордского института Интернета отметила, что, хотя в целом исследование было «очень многообещающим», всё же важно понять, как алгоритм достигал своих решений, если им не руководил человечек.

«Возможно, вам удастся избавиться от человеческой предвзятости, но объективных нейтральных данных не существует, это всегда необходимо учитывать, — сказала она. — Понимание того, почему алгоритм принимает определённые решения о группировке, очень важно».

Источник: https://www.bbc.com/news/technology-56321296

от AI_NEWS

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *