С каждым днём сохранить конфиденциальность и личную информацию в сети становится всё сложнее. Новый инструмент Exposing.AI позволяет каждому узнать, использовались ли его личные фотографии для обучения систем распознавания лиц на базе ИИ.
Многие даже не задумываются, откуда разработчики программ распознавания лиц берут снимки для обучения своих продвинутых алгоритмов. Как оказалось, некоторые из них обращаются к общедоступным базам, а другие — к фотохостингам, например Flickr. Программа Exposing.AI создана с одной целью: убедиться, что личные фотографии не использовались без вашего ведома.
Exposing.AI использует открытые базы данных, анализируя идентификаторы Flickr. Алгоритм исключает систему распознавания лиц. По словам разработчиков, миллионы изображений получены без согласия пользователей. Это нарушает права людей, поскольку они не давали разрешения на работу с биометрикой. Мало того, никто не занимается контролем подобных нарушений, а фотографии берутся напрямую из социальных сетей и фотохостингов.
Один из пользователей, который уже отсканировал свою учётную запись, нашёл множество совпадений. К сожалению, даже если обнаружен сам факт подобных злоупотреблений, сделать с этим пока ничего нельзя.
Последнее редактирование: