vitus_wagner: My photo 2005 (Default)
[personal profile] vitus_wagner

https://arstechnica.com/security/2025/05/signal-resorts-to-weird-trick-to-block-windows-recall-in-desktop-app/

ТУт Microsoft решила вставить в Windows фичу Windows Recall. Эта штука делает скриншоты каждые три секунды, распознает текст с них и позволяет делать поиск на тему "тут я на днях что-то читал про keyword, что это было?"

Казалось бы штука полезная. Но фактически это приводит к тому, что все, что человек делал на компьютере, где-то сохраняется. И кто-то может получить к этому доступ. Этим кем-то могут быть правоохранительные органы, члены семьи, а то и троян, севший на компьютер.

Поэтому защитники приватности в панике.

Разработчики мессенжера Signal изящно выкрутились - они пометили свои окна как содержащие copyrighted content, и соответственно на скриншотах такие окна изображаются черными прямоугольниками. И на скриншотах, делаемых Recall - тоже.

(помнится было дело, писал покойный Ленский обзор какой-то компьютерной игры, и нужны ему были скриншоты. А игра очень не любила чтобы с нее делали скриншоты и стримы. Пришел Ленский ко мне в гости, запустили мы эту игру то ли в qemu, то ли в dosemu, а против лома нет приема. Если мы делаем скриншоты с эмулятора, то запущенная внутри эмулятора программа про это знать не знает).

На мой взляд наличие у компьютера памяти о действиях пользователя, особенно в сочетании с AI, вещь однозначно полезная. А попытки требовать согласие второго участника разговора на запись этого разговора - несправедливы. Все что видели глаза и слышали уши человека он имеет право сохранить в памяти, биологической ли, технической ли, навечно. И проблема здесь скорее в том, что компьютер недостаточно защищен от проинкновения посторонних людей.

Вообще когда AI в персональьных компьютерах станет нормой, вероятно имеющееся в законодательстве право не свидетельствовать против себя и близких родственников должно быть распространено на компьютеры. И АI должен иметь право не свидетельствовать против хозяина.

Date: 2025-05-23 12:36 pm (UTC)
phd_ru: (Default)
From: [personal profile] phd_ru
> Вообще когда AI в персональьных компьютерах станет нормой, вероятно имеющееся в законодательстве право не свидетельствовать против себя и близких родственников должно быть распространено на компьютеры. И АI должен иметь право не свидетельствовать против хозяина.

Наоборот. Когда AI станет нормой, право не свидетельствовать против себя отменят вообще.

Date: 2025-05-23 05:06 pm (UTC)
tanriol: (Default)
From: [personal profile] tanriol
Для того, чтобы распространить на AI право не свидетельствовать против хозяина, для начала нужно вообще хоть какие-то права для него прописать. Потому что без этого AI будет являться данными, принадлежащими этому человеку - в лучшем случае. Данными, принадлежащими провайдеру AI, к которым предоставлен доступ этому человеку - в более неприятном случае. И у правоохранительных органов будет полная техническая возможность извлекать из него необходимую информацию любыми техническими методами. Интересно, будет ли индустрия методов дообучения типа "промывки мозгов" AI? А эквивалент пыток?

Date: 2025-05-23 06:00 pm (UTC)
tanriol: (Default)
From: [personal profile] tanriol

Здесь есть несколько интересных моментов, даже если не говорить о вопросах "принадлежащей на правах собственности" техники (а "куплено в кредит, который ещё до конца не выплачен" считается?).

Далее, в чём принципиальное отличие этого от любого другого извлечения информации из устройств пользователя? Имеет ли пользователь право не отдавать пароль и/или ключи шифрования от своего устройства?

Контроль над исходным кодом программы. В случае ИИ современного типа мы говорим про рантайм или про данные? Должен ли пользователь иметь гарантии того, на каких именно данных ИИ обучался? А то бэкдор может быть заложен ведь не только в программный код, но и в сформированную посредством обучения матрицу весов или что там у него, насколько я понимаю нынешние исследования по части AI.

И здесь возникает следующий интересный момент - есть впечатление, что по факту граница между программой и AI сейчас проходит по критерию понятности. Вероятно, не принципиально - человекочитаемые экспертные системы, наверное могли бы быть доведены до уровня, эквивалентного ИИ. Но на практике характерной особенностью GenAI является компонента типа "чёрный ящик", для которой известно, как она обучалась и на каких данных, но вот внутренняя структура поддаётся интерпретации примерно так же, как можно работу мозга интерпретировать на основе данных МРТ. С другой стороны, если бы внутренняя работа AI была бы полностью прозрачна, то "право" ИИ не свидетельствовать против хозяина не имело бы смысла, так как можно было бы просто считать нужную информацию из памяти ИИ точно так же, как считал бы её сам ИИ.

Ну и наконец. Если мы говорим про то, что мы не понимаем внутреннюю работу ИИ, используем его как полноценного помощника и предоставлям ему ограниченные права ("не свидетельствовать против хозяина"), то есть считаем его субъектом (права)... а мы точно не выходим в тот момент, когда нужно признавать ИИ полноценным субъектом, признавать его право на жизнь, платить деньги за работу (и брать арендную плату за использование устройства хозяина) и так далее? По какому критерию мы это проверяем?

Собственно, в последнем случае наиболее подходящей базой для указанного права ИИ, по идее, должна быть механика адвокатской / врачебной тайны.

Edited Date: 2025-05-23 06:02 pm (UTC)

Date: 2025-05-24 05:00 am (UTC)
dluciv: (Default)
From: [personal profile] dluciv

К тому моменту AI уже будет спорить на тему того, кто хозяин...

Profile

vitus_wagner: My photo 2005 (Default)
vitus_wagner

May 2025

S M T W T F S
    1 2 3
4 56 7 8 9 10
11 12 131415 1617
1819202122 2324
25262728293031

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated May. 28th, 2025 03:51 am
Powered by Dreamwidth Studios
OSZAR »