vitus_wagner: My photo 2005 (Default)
vitus_wagner ([personal profile] vitus_wagner) wrote2025-05-23 03:06 pm

Эйдетическая память в Windows 11

https://arstechnica.com/security/2025/05/signal-resorts-to-weird-trick-to-block-windows-recall-in-desktop-app/

ТУт Microsoft решила вставить в Windows фичу Windows Recall. Эта штука делает скриншоты каждые три секунды, распознает текст с них и позволяет делать поиск на тему "тут я на днях что-то читал про keyword, что это было?"

Казалось бы штука полезная. Но фактически это приводит к тому, что все, что человек делал на компьютере, где-то сохраняется. И кто-то может получить к этому доступ. Этим кем-то могут быть правоохранительные органы, члены семьи, а то и троян, севший на компьютер.

Поэтому защитники приватности в панике.

Разработчики мессенжера Signal изящно выкрутились - они пометили свои окна как содержащие copyrighted content, и соответственно на скриншотах такие окна изображаются черными прямоугольниками. И на скриншотах, делаемых Recall - тоже.

(помнится было дело, писал покойный Ленский обзор какой-то компьютерной игры, и нужны ему были скриншоты. А игра очень не любила чтобы с нее делали скриншоты и стримы. Пришел Ленский ко мне в гости, запустили мы эту игру то ли в qemu, то ли в dosemu, а против лома нет приема. Если мы делаем скриншоты с эмулятора, то запущенная внутри эмулятора программа про это знать не знает).

На мой взляд наличие у компьютера памяти о действиях пользователя, особенно в сочетании с AI, вещь однозначно полезная. А попытки требовать согласие второго участника разговора на запись этого разговора - несправедливы. Все что видели глаза и слышали уши человека он имеет право сохранить в памяти, биологической ли, технической ли, навечно. И проблема здесь скорее в том, что компьютер недостаточно защищен от проинкновения посторонних людей.

Вообще когда AI в персональьных компьютерах станет нормой, вероятно имеющееся в законодательстве право не свидетельствовать против себя и близких родственников должно быть распространено на компьютеры. И АI должен иметь право не свидетельствовать против хозяина.

phd_ru: (Default)

[personal profile] phd_ru 2025-05-23 12:36 pm (UTC)(link)
> Вообще когда AI в персональьных компьютерах станет нормой, вероятно имеющееся в законодательстве право не свидетельствовать против себя и близких родственников должно быть распространено на компьютеры. И АI должен иметь право не свидетельствовать против хозяина.

Наоборот. Когда AI станет нормой, право не свидетельствовать против себя отменят вообще.
tanriol: (Default)

[personal profile] tanriol 2025-05-23 05:06 pm (UTC)(link)
Для того, чтобы распространить на AI право не свидетельствовать против хозяина, для начала нужно вообще хоть какие-то права для него прописать. Потому что без этого AI будет являться данными, принадлежащими этому человеку - в лучшем случае. Данными, принадлежащими провайдеру AI, к которым предоставлен доступ этому человеку - в более неприятном случае. И у правоохранительных органов будет полная техническая возможность извлекать из него необходимую информацию любыми техническими методами. Интересно, будет ли индустрия методов дообучения типа "промывки мозгов" AI? А эквивалент пыток?
tanriol: (Default)

[personal profile] tanriol 2025-05-23 06:00 pm (UTC)(link)

Здесь есть несколько интересных моментов, даже если не говорить о вопросах "принадлежащей на правах собственности" техники (а "куплено в кредит, который ещё до конца не выплачен" считается?).

Далее, в чём принципиальное отличие этого от любого другого извлечения информации из устройств пользователя? Имеет ли пользователь право не отдавать пароль и/или ключи шифрования от своего устройства?

Контроль над исходным кодом программы. В случае ИИ современного типа мы говорим про рантайм или про данные? Должен ли пользователь иметь гарантии того, на каких именно данных ИИ обучался? А то бэкдор может быть заложен ведь не только в программный код, но и в сформированную посредством обучения матрицу весов или что там у него, насколько я понимаю нынешние исследования по части AI.

И здесь возникает следующий интересный момент - есть впечатление, что по факту граница между программой и AI сейчас проходит по критерию понятности. Вероятно, не принципиально - человекочитаемые экспертные системы, наверное могли бы быть доведены до уровня, эквивалентного ИИ. Но на практике характерной особенностью GenAI является компонента типа "чёрный ящик", для которой известно, как она обучалась и на каких данных, но вот внутренняя структура поддаётся интерпретации примерно так же, как можно работу мозга интерпретировать на основе данных МРТ. С другой стороны, если бы внутренняя работа AI была бы полностью прозрачна, то "право" ИИ не свидетельствовать против хозяина не имело бы смысла, так как можно было бы просто считать нужную информацию из памяти ИИ точно так же, как считал бы её сам ИИ.

Ну и наконец. Если мы говорим про то, что мы не понимаем внутреннюю работу ИИ, используем его как полноценного помощника и предоставлям ему ограниченные права ("не свидетельствовать против хозяина"), то есть считаем его субъектом (права)... а мы точно не выходим в тот момент, когда нужно признавать ИИ полноценным субъектом, признавать его право на жизнь, платить деньги за работу (и брать арендную плату за использование устройства хозяина) и так далее? По какому критерию мы это проверяем?

Собственно, в последнем случае наиболее подходящей базой для указанного права ИИ, по идее, должна быть механика адвокатской / врачебной тайны.

Edited 2025-05-23 18:02 (UTC)
dluciv: (Default)

[personal profile] dluciv 2025-05-24 05:00 am (UTC)(link)

К тому моменту AI уже будет спорить на тему того, кто хозяин...

[personal profile] igus 2025-05-30 09:14 am (UTC)(link)
То есть елси у человека есть постоянно носимый видеорегистраторо, то несмотряя на то что его запись технически можно прочитать за любой период времени, юридически было бы справедливно чтобы записи выдавались влдадельцем исключительно на тех же основаниях на которых он что-то рассказывает о том чему был свидетелем.

(хотя сейчас в некоторых странах наоборот пошли по пути органичения права человека на регистрацию всего, что видят его глаза и слышат его уши)


Насколько я в курсе австрийской дискуссии на эту тему, основной аргумент против мобильних видеорегистраторов сводится к невозможности запретить владельцу обнародовать запись. Если человек случайно увидел, как у девушки ветер задрал юбку - это одно, а если эта сцена была зафиксирована видеорегистратором и выложена в инет - это немножко другое.
Аргумент не то, чтобы бесспорный, но и не бессмысленный.

[personal profile] igus 2025-05-30 04:24 pm (UTC)(link)
Вот у меня с визуальной памятью и с визуальным мышлением всё очень плохо, я никакую картинку не могу вспомнить/представить, поэтому с моего мозга ничего не считается.
Подозреваю, что я не один такой на свете.

[personal profile] dargot 2025-05-30 06:58 pm (UTC)(link)
Приветствую!

AI суть мыслящие орудия, и для обращения с ними следует использовать старые, добрые принципы - если мне не изменяет память, в Древнем Риме свидетельство раба против своего хозяина не принималось, если дело не казалось государственных преступлений.

С уважением, Dargot.