Противодействие человека нежелательному влиянию ИИ

XUC

второе пришествие
Регистрация
3 Сен 2006
Сообщения
851
Реакции
562
Утилита DoNotSpy11 для повышения конфиденциальности Windows поможет отключить ИИ-помощника Copilot

Утилита DoNotSpy11, позволяющая детально настроить параметры конфиденциальности в Windows 11 и Windows 10, получила обновление, в котором реализована поддержка Windows 11 23H2. Вместе с этим утилита получила ряд новых возможностей, одной из которых стала опция отключения ИИ-помощника Copilot.

1146.jpg

Источник изображения: Windows / unsplash.com

В новой версии DoNotSpy11 реализовано большое количество нововведений. Помимо возможности отключения Copilot отметим появление дополнительных возможностей по управлению конфиденциальностью в браузере Edge. Теперь пользователи могут отключить опцию предсказания текста, функцию «Связанные совпадения» в поиске на странице, а также функцию «Сочинить» для написания текста в интернете и миниатюры изображений для отображения в истории просмотров. Ещё утилита позволит отключить автоисправление слов с ошибками, связанные с учётной записью уведомления и др.

Напомним, утилита DoNotSpy11 позиционируется разработчиками как инструмент обеспечения конфиденциальности пользователей в Windows 11 и Windows 10. С её помощью можно отключить большинство трекеров телеметрии Microsoft, которые интегрированы в программную платформу софтверного гиганта. В дополнение к этому утилита может отключать трекеры в других программных продуктах компании, таких как Office и Edge. С помощью DoNotSpy11 также можно контролировать, к каким функциям Windows имеют доступ установленные на устройстве приложения.

Конфиденциальность Windows много лет остаётся спорной темой из-за большого количества телеметрических данных, которые Microsoft собирает с помощью своих ОС. Уровень отслеживания повысился с появлением виртуальных помощников и персонализированной рекламы, которая присутствует в Windows 11 и Windows 10. Технически Microsoft позволяет отключить большую часть трекеров, но это не гарантирует, что компания не следит за пользователями. Утилита DoNotSpy11 позволяет пользователям получить более детальное представление о том, какие именно приложения собирают их данные.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
Дипфейк не пройдёт: все камеры Sony получат технологию подтверждения подлинности фотографий

Sony и Associated Press (AP) завершили совместное тестирование передовой технологии внутрикамерной аутентификации, которая должна остановить волну фейковых изображений и предоставить фотографам и пользователям инструменты, необходимые для проверки подлинности фотографий. Эта технология становится особенно актуальной в условиях продолжающегося распространения и быстрого совершенствования технологий генеративного ИИ.

a9-iii-c2pa-featured-sony.jpg

Источник изображения: Sony

Проблема аутентичности цифровых изображений на протяжении нескольких последних лет становится всё более острой. Ранее, в 2019 году компания Adobe представила технологию Content Authenticity Initiative (CAI), направленную на контроль «легитимности» цифровых изображений, а в 2020 году добавила в Photoshop инструмент для регистрации в метаданных изображения каждого внесённого изменения и его автора. На сегодняшний день Adobe CAI поддерживается рядом компаний, включая NVIDIA, Microsoft, X, AP, New York Times, Getty Images, Nikon и Leica.

В 2021 году Adobe, Arm, Intel и Microsoft основали «Коалицию по происхождению и аутентичности контента» — C2PA для обеспечения соответствующих технических стандартов и документации, Sony присоединилась к группе в марте 2022 года. Благодаря участию Sony в руководящем комитете C2PA был выработан текущий отраслевой стандарт по отслеживанию редактирования и манипулирования изображениями, и теперь компания намерена его продвигать и поддерживать.

AP, начиная с 2020 года, обеспечивает своих фотографов исключительно оборудованием Sony. Неудивительно, что компаниям в процессе совместного тестирования удалось добиться «значительного прогресса в решении проблемы аутентичности контента», по утверждению Sony. Второй этап полевых испытаний, включавший месяц тестирования цифровой подписи и технологии C2PA в реальном рабочем процессе фотожурналистики, был завершён в октябре.

Предлагаемая Sony технология создаёт цифровую подпись во время съёмки и при этом не требует наличия специального оборудования или изменений в аппаратной части камеры. Для применения новой технологии достаточно будет обновить прошивку. Уже выпущенные фотоаппараты, такие как Sony a1 и a7S III, будут поддерживать встроенную подпись и аутентификацию C2PA наряду с будущей Sony a9 III. При съёмке фотографии создаётся неразрывная цифровая цепочка, гарантирующая, что изображение является подлинным и не подвергалось редактированию или другим манипуляциям.

Для просмотра ссылки Войди или Зарегистрируйся

«Хотя быстрая эволюция генеративного искусственного интеллекта открыла новые возможности для творческого самовыражения, она также привела к растущей обеспокоенности по поводу влияния изменённых или манипулируемых изображений в журналистике, — уверен Нил Мановиц (Neal Manowitz), президент и главный операционный директор Sony Electronics. — Распространение ложной информации и изображений имеет реальные социальные последствия, которые наносят вред не только нашим фотожурналистам и партнёрам информационных агентств, но и обществу в целом».

«Фальшивые и манипулируемые изображения являются серьёзной проблемой для новостных организаций. Они не только способствуют распространению фейков и дезинформации, но в конечном итоге подрывают доверие общественности к реальным и точным изображениям. Мы гордимся тем, что работаем вместе с Sony Electronics над созданием решения для аутентификации, которое поможет решить эту проблему». — заявил представитель AP Дэвид Эйк (David Ake).

Чтобы гарантировать подлинность цифровой подписи и не нарушать рабочий процесс фотографа, Sony и AP заключили партнёрское соглашение с Camera Bits, разработчиком программного обеспечения Photo Mechanic, которое обеспечивает целостность и сохранность цифровой подписи при редактировании метаданных.

«Мы осознаем серьёзную проблему, которую манипулирование изображениями создаёт для наших партнёров, и принимаем участие в её решении, — сообщил Деннис Уокер (Dennis Walker), президент и основатель Camera Bits. — Photo Mechanic используется в фотожурналистике уже 25 лет и продолжает развиваться по мере внедрения новых технологий. Мы стремимся к тому, чтобы Photo Mechanic оставался надёжным и аутентичным решением для рабочих процессов».

Теперь, когда технология аутентификации в камере Sony доказала свою эффективность в реальных испытаниях AP, Sony готова внедрить цифровую подпись и технологию C2PA в большинстве своих устройств. Флагманские камеры серии Alpha должны получить обновление прошивки с новой технологией следующей весной.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
Нехудожественные писатели подали в суд на OpenAI и Microsoft за обучение ИИ по их книгам

Писатели подали в суд на компании OpenAI и Microsoft за использование их книг для обучения интеллектуального чат-бота ChatGPT. В иске утверждается, что Microsoft «глубоко вовлечена» в процесс обучения ChatGPT, поэтому она несёт полную ответственность за любые нарушения наряду с OpenAI.

sm.open_ai.800.png


ChatGPT и аналогичные ИИ, использующие в своей основе большие языковые модели (Large Language Model, LLM), «тренируются» на огромных массивах данных. При этом OpenAI загружает значительную часть информации из интернета, а некоторые данные поступают из таких источников, как нехудожественная литература. Поэтому авторы таких книг теперь требуют компенсации в новом судебном процессе.

По сообщениям Reuters, автор Джулиан Санктон (Julian Sancton) заявляет, что OpenAI без разрешения скопировала десятки тысяч нехудожественных книг для обучения ChatGPT. Автор возглавляет коллектив, подавший в минувший вторник иск в федеральный суд Манхэттена. В иске заявители отмечают, что «модели ответчиков были откалиброваны (обучены) путём воспроизведения огромного массива материалов, защищённых авторским правом, включая десятки или даже сотни тысяч нон-фикшн книг».

Иск подан в очень «удачный» для OpenAI момент, когда компания столкнулась с рядом других юридических и внутренних проблем. На компанию уже поданы другие иски, касающиеся частных данных, использования авторского контента. Кроме того, в минувшие выходные OpenAI столкнулась с кризисом управления, когда совет директоров уволил генерального директора компании Сэма Альтмана (Sam Altman), но затем компания отказалась от этого решения, пообещав под давлением сотрудников набрать новый состав совета директоров.

Новый иск отличается от предыдущих заявлений тем, что в нём наряду с OpenAI впервые фигурирует технологический гигант Microsoft, который к тому же является крупным инвестором OpenAI. ИИ-чат-бот в Microsoft Bing, поиск на основе искусственного интеллекта и новая функция Copilot в значительной степени опираются на технологии OpenAI. Фигурально выражаясь, это почти что ChatGPT, но со вкусом Microsoft.

Несмотря на то, что OpenAI и Microsoft не комментируют этот последний иск, OpenAI ранее заявляла, что контент, генерируемый ChatGPT, не является «производным произведением» и, следовательно, не нарушает чьих бы то ни было авторских прав.

В течение текущего года произошёл буквально взрыв в развитии LLM, и многие вопросы, затрагивающие тему авторских прав, ещё не решены в судах. Вероятно, судебные иски так ни к чему и не приведут или заставят изменить порядок выплат авторам контента, используемого при тренировке LLM. Однако, пока говорить об этом несколько преждевременно.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
Разработана система защиты голоса от создания дипфейков

Технологии подделки голоса при помощи искусственного интеллекта являются довольно опасным инструментом — они способны правдоподобно воспроизвести человеческий голос даже по короткому образцу. Не допустить создание искусной подделки сможет предложенный американским учёным алгоритм AntiFake.

woman.jpg

Источник изображения: Gerd Altmann / pixabay.com

Дипфейки представляют собой достаточно опасное явление — с их помощью можно приписать знаменитому артисту или политику высказывание, которого он никогда не делал. Были также прецеденты, при которых злоумышленник звонил жертве и голосом друга просил срочно перевести деньги в связи с некой чрезвычайной ситуацией. Доцент кафедры компьютерных наук и инженерии Вашингтонского университета в Сент-Луисе Нин Чжан (Ning Zhang) предложил технологию, которая значительно усложняет создание голосовых дипфейков.

Принцип работы алгоритма AntiFake состоит в формировании условий, при которых системе ИИ оказывается намного сложнее считывать ключевые характеристики голоса при записи разговора реального человека. «В инструменте используется техника состязательного ИИ, которая изначально применялась киберпреступниками, но теперь мы направили её против них. Мы немного искажаем записанный аудиосигнал, создавая возмущения ровно в той мере, чтобы для человека он звучал так же, а для ИИ — совершенно иначе», — прокомментировал свой проект господин Чжан.

antifake.jpg

Источник изображения: wustl.edu

Это значит, что при попытке создать дипфейк на основе изменённой этим способом записи сгенерированный ИИ голос не будет похож на голос человека в образце. Как показали проведённые испытания, алгоритм AntiFake на 95 % эффективен для предотвращения синтеза убедительных дипфейков. «Что будет с голосовыми ИИ-технологиями дальше, я не знаю — новые инструменты и функции разрабатываются постоянно, — но всё же считаю, что наша стратегия использования техники противника против него самого так и останется эффективной», — заключил автор проекта.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
Текстовый редактор iA Writer научился выделять текст от ChatGPT

В последней версии минималистичного мультиплатформенного текстового редактора iA Writer 7 появилась функция Autorship — маркировка текста, созданного системами генеративного искусственного интеллекта вроде ChatGPT.

ia-writer.jpg

Источник изображения: ia.net

Введённый пользователем текст отображается чёрным цветом, но при желании созданные ИИ фрагменты могут выводиться серым. Это делается для того, чтобы при последующем редактировании машинного творчества автор мог отследить, какая часть финального текста является оригинальной работой, а какая была сгенерирована ИИ. Это поможет избавиться от опасений, что ИИ способен стать «писателем-призраком», который когда-нибудь «возьмёт верх» и заставит человека «лишиться собственного голоса» — новая функция ограничивает роль ИИ как «партнёра в диалоге», который «побуждает думать и писать лучше».

Для просмотра ссылки Войди или Зарегистрируйся

Функция Autorship автоматизирована не полностью: если скопировать из диалогового интерфейса в буфер обмена и вопрос к ИИ, и его ответ, то последний без дополнительных команд вставится серым цветом. Если же скопирован только ответ, то при вставке придётся выбрать соответствующую опцию в выпадающем подменю. «Вам решать, насколько честными вы хотите быть с самим собой», — пояснили такую работу функции разработчики iA Writer.

Иными словами, она предназначена не для выявления плагиата или принудительной маркировки сгенерированного ИИ контента, а для того, чтобы у представителей творческих профессий был инструмент, позволяющий увидеть грань между собственным текстом и работой ИИ. Пока Autorship доступна в приложениях для macOS, iOS и iPadOS, а в перспективе появится в версиях под Windows и Android. Примечательно, что создатели iA Writer опубликовали спецификацию функции на GitHub, предложив интегрировать её и разработчикам других приложений, «в идеале» задав новый стандарт.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
Госдума приняла закон, запрещающий школьникам пользоваться телефонами на уроках - даже в учебных целях
Исключения составят экстренные случаи

Депутаты Государственной думы России приняли во втором и третьем чтении закон о «совершенствовании взаимодействия участников образовательного процесса». Его авторами выступили депутаты от всех фракций.

ixbtmedia_smartphone_ban_in_russian_school_13e50a13-78f2-4272-a4ec-ec932258243e_large.png

Сгенерировано нейросетью Midjourney

Согласно этому закону, среди других нововведений, российским школьникам будет запрещено пользоваться мобильными телефонами во время уроков кроме экстренных случаев. В изначальной формулировке смартфоны разрешались в образовательных или учебных целях, но ко второму чтению это уточнение убрали.

Закон призван повысить качество образования, подчеркнул на пленарном заседании председатель Госдумы Вячеслав Володин. Он отметил, что «родители и учителя просили поддержать эту норму».

Кроме того, было принято решение вернуть в школы обязательные уроки труда. Володин рассказал:

В школы возвращен урок труда как обязательный предмет. Трудовое воспитание — неотъемлемая часть образовательного процесса. Если с детства ребенку прививать трудолюбие, то в будущем у него все будет хорошо.

Теперь законопроект должен пройти одобрение в Совете Федерации, а затем поступить на подпись к президенту России Владимиру Путину. Если все эти этапы пройдут успешно, то закон вступит в силу со дня его официального опубликования, не дожидаясь начала нового учебного года. При этом обязательный урок труда будет введён для начальных и средних классов с 1 сентября 2024 года.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 
Назад
Сверху