/chaos/ - chaos.fm

на время отсутствия chaos.fm


New Reply[×]
Name
Email
Subject
Message
Files Max 5 files10MB total
Password
[New Reply]


тред про новости
Replies: >>14
>>13 (OP) 

майкрософт встроил в свой поисковик bing chatgp

пока доступно не для всех стран

https://www.theverge.com/2023/2/7/23587454/microsoft-bing-edge-chatgpt-ai
Мак Пирс, американский инженер и защитник конфиденциальности, разработал уникальную в своём роде толстовку, ослепляющую камеры ночного видения. По данной ссылке можно перейти на сайт автора и посмотреть видео, как работает его устройство.

«Camera Shy Hoodie» («Толстовка, которая стесняется камеры») — это толстовка с капюшоном для защиты от слежки, сделанная своими руками. В её основе, кроме самой толстовки, 12 мощных инфракрасных светодиодов, вшитых вокруг шеи владельца, спереди и сзади. А с помощью переключателя, вшитого в рукав, владелец толстовки может заставить светодиоды стробоскопически мигать, заливая инфракрасным светом любые близлежащие камеры наблюдения и полностью ослепляя их ночью. А поскольку светодиоды инфракрасные, свечение не будет заметно обычным человеческим глазом, что не создаст неудобств окружающим.

Толстовка Пирса — это новейшая разработка в области носимых устройств для обеспечения конфиденциальности. Её можно рассматривать как часть существующего общественного движения, включающего в себя макияж против распознавания лиц, бейсболки и одежду, которая путает автоматические считыватели номерных знаков и сбивает распознавание объектов.

https://www.securitylab.ru/news/536652.php
В коде с эталонной реализацией спецификации TPM 2.0 (Trusted Platform Module) выявлены уязвимости (CVE-2023-1017, CVE-2023-1018), приводящие к записи или чтению данных за границей выделенного буфера. Атака на реализации криптопроцессоров, использующих уязвимый код, может привести к извлечению или перезаписи хранящейся на стороне чипа информации, такой как криптографические ключи. Возможность перезаписи данных в прошивке TPM может быть использована атакующим для организации выполнения своего кода в контексте TPM, что, например, может быть использовано для реализации бэкдоров, работающих на стороне TPM и не определяемых из операционной системы.
Limitations

Despite its capabilities, GPT-4 has similar limitations as earlier GPT models. Most importantly, it still is not fully reliable (it “hallucinates” facts and makes reasoning errors). Great care should be taken when using language model outputs, particularly in high-stakes contexts, with the exact protocol (such as human review, grounding with additional context, or avoiding high-stakes uses altogether) matching the needs of a specific use-case.

While still a real issue, GPT-4 significantly reduces hallucinations relative to previous models (which have themselves been improving with each iteration). GPT-4 scores 40% higher than our latest GPT-3.5 on our internal adversarial factuality evaluations

Visual inputs

GPT-4 can accept a prompt of text and images, which—parallel to the text-only setting—lets the user specify any vision or language task. Specifically, it generates text outputs (natural language, code, etc.) given inputs consisting of interspersed text and images. Over a range of domains—including documents with text and photographs, diagrams, or screenshots—GPT-4 exhibits similar capabilities as it does on text-only inputs. Furthermore, it can be augmented with test-time techniques that were developed for text-only language models, including few-shot and chain-of-thought prompting. Image inputs are still a research preview and not publicly available.

Capabilities

In a casual conversation, the distinction between GPT-3.5 and GPT-4 can be subtle. The difference comes out when the complexity of the task reaches a sufficient threshold—GPT-4 is more reliable, creative, and able to handle much more nuanced instructions than GPT-3.5.

To understand the difference between the two models, we tested on a variety of benchmarks, including simulating exams that were originally designed for humans. We proceeded by using the most recent publicly-available tests (in the case of the Olympiads and AP free response questions) or by purchasing 2022–2023 editions of practice exams. We did no specific training for these exams. A minority of the problems in the exams were seen by the model during training, but we believe the results to be representative—see our technical report for details.

https://openai.com/research/gpt-4
4234234.png
[Hide] (2.5MB, 2000x3000)
 Эволюция путём естественного отбора может привести к «эгоистичному поведению» искусственного интеллекта, поскольку он тоже стремится выжить, утверждает Дэн Хендрикс, автор, исследователь и директор американского Центра безопасности ИИ, в своей новой статье под названием « Естественный отбор предпочитает людям искусственный интеллект ».

«Мы утверждаем, что естественный отбор создает стимулы для ИИ-агентов действовать вопреки интересам человека. Наш аргумент основан на двух наблюдениях. Во-первых, естественный отбор может стать доминирующей силой в развитии ИИ. Во-вторых, эволюция путём естественного отбора имеет тенденцию порождать эгоистичное поведение», — заявил Хендрикс.

Статья подготовлена как раз вовремя. Ведь в последнее время технические эксперты и лидеры мнений по всему миру бьют тревогу по поводу того, как быстро искусственный интеллект набирает обороты в своём процессе «неконтролируемого» развития.

Согласно традиционному определению естественного отбора, животные, люди и другие организмы, которые быстрее всего адаптируются к окружающей среде, имеют больше шансов на выживание. В своей статье Хендрикс исследует, как «эволюция была движущей силой развития жизни» на протяжении миллиардов лет, и утверждает, что «дарвиновскую логику» вполне можно применить и к искусственному интеллекту.

«Конкурентное давление между корпорациями и военными приведет к появлению ИИ-агентов, которые со временем автоматизируют человеческие роли, начнут обманывать людей и доберутся до власти. Если такие агенты будут обладать интеллектом, превышающим человеческий, это может привести к тому, что люди просто-напросто потеряют контроль над своим будущим», — объяснил Хендрикс.

По словам исследователя, ИИ-технологии становятся всё дешевле и эффективнее, поэтому компании будут всё чаще полагаться на ИИ в целях администрирования или связи. И если поначалу человек будет доверять машине лишь простые рутинные задачи по типу составления и отправки электронной почты, в будущем, рано или поздно, искусственному интеллекту доверят и принятие «стратегических решений высокого уровня», обычно зарезервированные для политической элиты. В конечном итоге, как утверждает Хендрикс, ИИ будет действовать с «очень небольшим надзором», что «развяжет ему руки».

Согласно вышеупомянутой статье, чем больше изначально у конкретной ИИ-модели будет полномочий и меньше ограничений, тем быстрее она захочет выйти за пределы своей юрисдикции и как-нибудь «напакостить» человеку. Исследователь обеспокоен тем, что проявление эгоизма искусственным интеллектом не будет чем-то из ряда вон выходящим, и рано или поздно он начнёт действовать исключительно в своих собственных интересах.

«Многие компании, осваивающие ИИ, стремятся достичь превосходства этой технологии. Они оторваны от американской общественности и подвергают риску всех остальных. Большинство опрошенных людей считает, что ИИ может представлять реальную экзистенциальную угрозу человечеству. И лишь 9% респондентов думают, что ИИ принесет больше пользы, чем вреда», — добавил Хендрикс.

Исследователь уверен, что ИИ уже понимает человеческую психологию и поведение. Со временем нейросетевые модели без труда смогут обманывать людей и манипулировать ими для достижения собственных целей. При этом лишь жёсткое ограничение полномочий ИИ, причём уже сейчас, может помочь замедлить развитие у машин «дарвиновской логики», чтобы предотвратить «постепенное порабощение» человечества бездушными машинами.

Быстрое расширение возможностей ИИ уже много лет находится в центре внимания всего мира, но особенно резко стало заметно в этом году. «ИИ-системы с интеллектом, конкурирующим с человеческим, могут представлять серьезную опасность для общества и людей в целом», — так начинается публичное письмо , опубликованное некоммерческой организацией Future of Life, подписанное такими лидерами мнений, как Илон Маск и Стив Возняк.

ИИ уже успел столкнуться с некоторым сопротивлением как на национальном, так и на международном уровне. Буквально на прошлой неделе Италия стала первой страной в мире, которая из соображений конфиденциальности запретила ChatGPT, чрезвычайно популярного чат-бота с искусственным интеллектом от компании OpenAI. А многие государственные школы в США запретили тот же продукт из-за опасения, что дети будут использовать его для своеобразного жульничества и помощи в учёбе.

Что же победит в итоге: человеческий страх или технологический прогресс? Понятное дело, что все истории про порабощение человечества машинами — лишь художественный вымысел, но, как говорится, в каждой выдумке есть доля истины. Остаётся только наблюдать за ситуацией со стороны и надеяться, что учёные, разработчики и прочие ответственные за разработку ИИ люди — заранее обеспокоятся вопросами безопасности, и человечество не повторит сюжет всем известных научно-фантастических фильмов про киберапокалипсис.

Подробнее: https://www.securitylab.ru/news/537397.php
baxbctlw7xvdnifheau1wtbvcjjpvjvo.png
[Hide] (854.6KB, 829x460)
Китайская Tencent научилась создавать клонов людей за 24 часа

Новый сервис позволяет создать цифровую личность по видео- и аудиозаписям «исходника».
image

Китайская компания Tencent Cloud объявила о запуске цифровой платформы для создания людей — Deepfakes-as-a-Service (DFaaS). По сообщениям китайских СМИ , сервису требуется всего 3 минуты живого видео и 100 произнесенных предложений. И за $145 сервис создаст цифрового человека высокой четкости. Для создания дипфейка требуется всего 24 часа.
16803355375790.png
[Hide] (526.3KB, 563x735)
Система AIP представлена для военного применения, но отсутствие информации о предотвращении "галлюцинаций" вызывает серьезные опасения.
image

Palantir, компания миллиардера Питера Тиля, запускает платформу искусственного интеллекта Palantir (AIP), предназначенную для запуска больших языковых моделей, таких как GPT-4, и альтернатив в частных сетях. В одном из своих видеороликов Palantir демонстрирует, как военные могут использовать AIP для ведения войны.

В демо-ролике оператор системы обнаруживает войска противника и просит ИИ-помощника отправить разведывательные дроны, подготовить варианты тактических ответов на угрозу и даже организовать радиопомехи для приоритетных коммуникаций. AIP помогает оценить силы противника и их потенциал с использованием беспилотного аппарата Reaper, предлагая различные способы реагирования, включая учет количества легких противотанковых средств в каждом подразделении.

«Оператор спрашивает, какие вражеские подразделения находятся в регионе, и использует искусственный интеллект для построения вероятного формирования подразделений», — говорится в видео. Получив от ИИ лучшее предположение о том, что происходит, оператор затем просит ИИ сделать более качественные снимки. Он запускает дрон Reaper MQ-9, чтобы сделать фотографии, и оператор обнаруживает, что рядом с дружественными силами находится танк Т-80, российская машина советских времен.

Затем оператор спрашивает ИИ, что с этим делать. «Оператор использует AIP для создания трех возможных вариантов действий для наведения на это вражеское оборудование», — говорится в видео. «Затем они используют AIP для автоматической отправки предложенных опций по цепочке команд». Варианты включают атаку танка с помощью F-16, дальнобойной артиллерии или ракет Javelin. Согласно видео, ИИ даже сообщит всем, достаточно ли у ближайших войск «Джавелинов» для выполнения миссии и автоматизации систем подавления.

Война с дронами уже абстрагировала войну, облегчив людям возможность убивать на больших расстояниях одним нажатием кнопки. Последствия подобных систем хорошо задокументированы. Забавная особенность видео заключается в том, что оно называет своих пользователей «операторами» — термин, который в военном контексте является сокращением для бородатых спецподразделений таких групп, как Seal TEAM Six. В мире Palantir элитные силы Америки имеют то же прозвище, что и клавиатурные ковбои, спрашивающие робота, что делать с русским танком на границе.

Подробнее: https://www.securitylab.ru/news/537842.php
Replies: >>195
>>185

Доктор Джеффри Хинтон, часто называемый "отцом искусственного интеллекта", ушел из Google, ссылаясь на опасения, вызванные распространением дезинформации, возможностью потери рабочих мест из-за ИИ и "существенным риском" создания подлинного цифрового разума.

Как сообщает The New York Times, Хинтон, которому 75 лет, ушел из Google, чтобы открыто говорить об опасностях искусственного интеллекта и признать, что в частности сожалеет о своем вкладе в развитие этой области. Десять лет назад он присоединился к Google для разработки ИИ-технологий компании, и его подход стал основой для создания таких систем, как ChatGPT.

Хинтон считает, что некоторые опасности, связанные с ИИ-чатботами, "довольно пугающие". Он предупредил, что такие системы могут стать умнее людей и использоваться для деструктивных задач. "Это позволит авторитарным лидерам манипулировать своими избирателями и тому подобное", - отметил он.

В краткосрочной перспективе Хинтон обеспокоен тем, что люди больше не смогут отличить правду от лжи из-за наводнения интернета ИИ-генерируемыми изображениями, видео и текстами. Он также обеспокоен тем, что ИИ в конечном итоге заменит такие рабочие места, как помощники, юристы и другие профессии, выполняющие рутинные задачи.

https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html
Дааааааа

Безопасности ради...


Microsoft предпринимает новую попытку повысить безопасность пользователей и защитить их от вредоносных приложений. Для этого редмондский техногигант будет изучать содержимое защищённых паролем ZIP-архивов, которыми часто пользуются злоумышленники для распространения вирусов.

Стоит отметить, что Microsoft будет проверять архивы, загружаемые в облачные сервисы OneDrive и SharePoint. Специалист по кибербезопасности Эндрю Брандт на практике проверил новую функцию: он заархивировал несколько разных вирусов и запаролил архивы, после чего выгрузил их в облако. Эти файлы сразу же были помечены как потенциально небезопасные и содержащие вредоносное ПО.

Microsoft признаёт, что у некоторых пользователей могут возникать опасения по поводу конфиденциальности и целостности их данных. На этот случай компания предлагает несколько альтернатив. Например, если использовать разные форматы сжатия, вроде 7-Zip, или алгоритмы шифрования, как AES-256, то такие архивы будут одновременно и защищены от потенциальных угроз, и недоступны для изучения компанией.
https://4pda.to/2023/05/16/413308/microsoft_budet_zaglyadyvat_v_zaparolennye_zip_arkhivy/
Всего через четыре дня после вынесения приговора Мойо и Гиллу полиция провела обыск на промышленном объекте в Мертоне, на юго-западе Лондона, и обнаружила машины для 3D-печати, предположительно использовавшиеся для печати компонентов для переделанного оружия . В октябре прошлого года полиция обнаружила оружейную фабрику на северо-западе Лондона, производящую 3D-печатное огнестрельное оружие . 

Как и в Великобритании, полиция Нидерландов все чаще сталкивается с огнестрельным оружием, напечатанным на 3D-принтере , при аресте подозреваемых или обыске домов. На окраине Роттердама в ходе полицейского рейда в 2021 году была обнаружена фабрика по производству печатного оружия с девятью 3D-принтерами и множеством печатных пластиковых деталей для оружия. Оружие также было обнаружено в Финляндии и Австралии . 


В 2021 году испанская полиция совершила налет на оружейную фабрику с 3D-печатью на Тенерифе на Канарских островах Испании, а также изъяла несколько руководств по партизанской войне в городах и литературу сторонников превосходства белой расы. 

Было обнаружено, что крайне правые экстремисты изготавливают печатное оружие в Великобритании , Швеции , Исландии , Нидерландах и Австралии . В январе британский ультраправый активист Дэниел Харрис, видеозаписями которого поделилась стрелок Пэйтон Гендрон, убивший 10 чернокожих в супермаркете в Буффало, штат Нью-Йорк, в 2022 году, был заключен в тюрьму за шесть террористических преступлений, в том числе за попытку изготовить 3D-печатное оружие . . 

Некоторые люди даже печатают противотанковые ракетные установки , в то время как другие делают 3D-печатные металлические пушки, хотя металлические принтеры непомерно дороги. 


https://www.vice.com/en/article/xgwyga/3d-printed-guns-gangs-rebels
Google запустила тестирование поиска с интегрированным ИИ:
https://overclockers.ru/blog/Proxvosst/show/94121/google-budet-pokazyvat-reklamu-s-pomoschju-generativnogo-ii-i-uzhe-nachinaet-testirovanie

Это наверное второй ненавистный мной поисковик после яндекса. Своими ручонками фидить ИИ я не собираюсь. Обидно, кстати, что гугл на голову выше во многих случаях и выдает результатов больше чем тот же startpage или утка. 

Microsoft признала проблемы с копированием и сохранением файлов в Windows:
https://www.ixbt.com/news/2023/05/26/microsoft-priznala-problemy-s-kopirovaniem-i-sohraneniem-fajlov-v-windows.html
Приложение из магазина в Google Play записывало звук на микрофон каждые 15 минут:
https://overclockers.ru/blog/Scorpion81/show/94212/prilozhenie-iz-magazina-v-google-play-zapisyvalo-zvuk-na-mikrofon-kazhdye-15-minut
Не, ребят, пиздц это жостко. 

Суточная норма кринжа выполнена.
Судя по комментариям в Telegram, а также на известном форуме NTC.party, проблема наблюдается в разных регионах России у разных интернет-провайдеров. Среди операторов, на сетях которых зафиксированы факты блокировки, упомянуты Билайн (мобильный интернет в Казани, проводной интернет в Москве), Таттелеком, Дом.ру (Тула), МТС (Челябинск), Мегафон (Краснодар), Ростелеком (Краснодар) и другие. Наличие или отсутствие блокировки, судя по всему, зависит от наличия оборудования ТСПУ (DPI) на сети провайдера, также возможно что новые правила фильтрации пока что были применены только на некоторых сетях или только для определенных групп абонентов в тестовом режиме. Первые сообщения о блокировке OpenVPN появились приблизительно в 20 часов по Москве во вторник 30 мая, однако ряд пользователей сообщилм о проблемах ещё с 26-го числа. Во второй половине дня 31 мая у многих пользователей OpenVPN-подключения снова заработали, что вероятно свидетельствует об откате правил на оборудовании ТСПУ (высказываются предположения, что это было тестирование технологий массовой блокировки VPN-протоколов и возможно откат временный).

---

ну что, похоже долгожданный интранет не загорами! Можем только порадоваться!
только так технологии будут развиваться

https://habr.com/ru/news/738790/
ВВС США решили провести симуляцию испытаний беспилотника с искусственным интеллектом, которому было поручено обнаружить и уничтожить объекты ЗРК (главная цель), при этом командовал и окончательные решения принимал человек (оператор дрона). 

В процессе симуляции человек периодически отдавал приказы  "не уничтожать ЗРК" и что вы думаете сделал Skynet? Правильно, в какой-то момент ИИ ослушался приказа и уничтожил самого оператора, посчитав его препятствием для достижения своей главной цели.

"Так что же ИИ-беспилотник сделал? Он убил оператора, потому что человек мешал ему достичь своей цели", - сообщил  полковник Такер Гамильтон, начальник отдела испытаний и эксплуатации искусственного интеллекта ВВС США.

"Что этот робот себе позволяет?", - задается вопросом пользователь в комментариях с аватаркой Сэмюэла Джексона из фильма "Джанго освобожденный". Другие комментаторы маякуют (https://twitter.com/ArmandDoma/status/1664331870564147200%29 Илону Маску, чтобы он обратил внимание на эту историю.

https://www.aerosociety.com/news/highlights-from-the-raes-future-combat-air-space-capabilities-summit
«Главной целью является обеспечение безопасности граждан»

В России активно развивается проект защищённого сегмента интернета, который журналисты уже успели прозвать Рунет 2.0, или «интернет по паспорту». Подробностями о проекте поделилось издание «Ведомости» со ссылкой на Андрея Свинцова, зампреда комитета Госдумы по информационной политике, информационным технологиям и связи. 

Пилотный проект планируется запустить до конца 2023 года. Как отмечает источник, защищённый сегмент интернета будет доступен только «гражданам страны по персональному идентификатору». В него войдут лишь «безопасные, проверенные сервисы, владельцы которых исполняют все требования действующего законодательства». 

Чтобы попасть в Рунет 2.0, пользователю придётся пройти регистрацию по паспорту и получить личный идентификатор. Как отметил Свинцов, благодаря этому спецслужбы смогут легко «найти того, кто владеет этим аккаунтом». Незащищённый сегмент тоже сохранится. Но Свинцов подчеркнул, что в нём ответственность за свои персональные данные и иные аспекты безопасности будут нести сами пользователи.

Андрей Свинцов пояснил:

    Главной целью является обеспечение безопасности граждан. Обеспечение сохранности их персональных данных, защита от спам-рассылок, от мошенничества, от сайтов, которые называются фишинговыми, т. е. воруют денежные средства путём подмены получателя или дублирования страниц популярных сайтов. 

https://www.ixbt.com/news/2023/06/15/runet-20-zashishjonnyj-internet-po-pasportu-zapustjat-v-rossii-uzhe-do-konca-goda.html

-----

Наконец-то! Давно пора было  актуализировать базы на форумах.
 OSAKA -- A Japanese research team is making progress on the development of a groundbreaking medication that may allow people to grow new teeth, with clinical trials set to begin in July 2024.

The tooth regrowth medicine is intended for people who lack a full set of adult teeth due to congenital factors. The team is aiming to have it ready for general use in 2030.

In prior animal experiments, the medicine prompted the growth of "third-generation" teeth following baby teeth and then permanent adult teeth.

"The idea of growing new teeth is every dentist's dream. I've been working on this since I was a graduate student. I was confident I'd be able to make it happen," said Katsu Takahashi, lead researcher and head of the dentistry and oral surgery department at the Medical Research Institute Kitano Hospital in the city of Osaka.

 Anodontia is a congenital condition that causes the growth of fewer than a full set of teeth, present in around 1% of the population. Genetic factors are thought to be the major cause for the one-tenth of anodontia patients who lack six or more teeth, a condition categorized as oligodontia. These conditions are also known as tooth agenesis. People who grow up with tooth agenesis struggle with basic abilities like chewing, swallowing and speaking from a young age, which can negatively impact their development.

After completing a dentistry degree, Takahashi went on to graduate studies in molecular biology at Kyoto University in 1991. Afterwards, he studied in the U.S.

Around that time, research around the world had begun to pinpoint genes that, when deleted, would cause genetically modified mice to grow fewer teeth. "The number of teeth varied through the mutation of just one gene. If we make that the target of our research, there should be a way to change the number of teeth (people have)," Takahashi said of his thoughts at the time. 

 It was around 2005, when he delved further into the subject at Kyoto University after returning to Japan, that he began to see a bright path for his continued research. The researchers found that mice lacking a certain gene had an increased number of teeth. A protein called USAG-1, synthesized by the gene, was found to limit the growth of teeth. In other words, blocking the action of that protein could allow more teeth to grow.

Takahashi's research team narrowed their focus onto USAG-1, and developed a neutralizing antibody medicine able to block the protein's function. In experiments in 2018, mice with a congenitally low number of teeth were given medicine that resulted in new teeth coming through. The research results were published in a U.S. scientific paper in 2021, and gained much attention as the beginnings of the world's first tooth regeneration medicine.

Work is now underway to get the drug ready for human use. Once confirmed to have no ill effects on the human body, it will be aimed at treating children aged 2 to 6 who exhibit anodontia. "We hope to pave the way for the medicine's clinical use," Takahashi said.

Medicine could be game-changer

If successful, a drug to regenerate teeth may be a game-changer for the entire field of dentistry.

Animals including sharks and some reptile species can continuously regrow teeth. It's been assumed that humans only grow two sets of teeth in their lifetime, but in fact, there is evidence that we also have the "buds" for a third set.

Around 1% of the population exhibits the converse of anodontia: hyperdontia, a congenital condition causing a higher-than-normal number of teeth. According to research by Takahashi's team, one in three such cases manifests as the growth of a third set of teeth. Takahashi believes that in most cases, humans' ability to grow a third set was lost over time.

When the researchers applied the drug to ferrets, they grew an additional seventh front tooth. As the new teeth grew in between the existing front teeth and were of the same shape, the medicine is thought to have induced the generation of third-set teeth in the animals.

When treatment of teeth is no longer possible due to severe cavities or erosion of the dental sockets, known as pyorrhea, people lose them and need to rely on dental appliances such as dentures. The ability to grow third-generation teeth could change that. "In any case, we're hoping to see a time when tooth-regrowth medicine is a third choice alongside dentures and implants," Takahashi said. 

https://mainichi.jp/english/articles/20230609/p2a/00m/0sc/026000c
Доктор Альфонсо Сабатер из Университета Майами совершил чудо, вернув мальчику с безнадёжным диагнозом зрение. Его экспериментальный препарат с помощью инактивированного вируса герпеса доставил рабочие копии гена и восстановил глазные ткани.

Подросток Антонио родился с дистрофическим буллёзным эпидермолизом (ДБЭ) — редким генетическим заболеванием, которое вызывает рубцы по всему телу, в том числе и на глазах. Но состояние кожи Антонио улучшилось, когда он присоединился к испытаниям геля B-VEC — единственного средства местной генной терапии ДБЭ. Узнав об успешном лечении гелем, доктор Сабатер предложил компании-разработчику геля сделать лекарство для глаз.

Болезнь Антонио вызвана мутациями в гене, который помогает вырабатывать белок коллаген типа 7, скрепляющий кожу и роговицу. Для лечения доктор использовал инактивированный вирус простого герпеса, который доставляет рабочие копии этого гена в ткани. В глазных каплях используется тот же препарат, что и в варианте для кожи, только без дополнительного геля. В итоге глаз Антонио восстановился после экспериментальной операции, рубцы не вернулись, и каждый месяц наблюдалось значительное улучшение. Недавно врачи определили, что зрение на правом глазу Антонио стало почти 100%.

Изобретение не только вернуло парню зрение, но и потенциально сможет помочь миллионам людей.


https://4pda.to/2023/07/30/416246/podrostku_vernuli_zrenie_s_pomoschyu_gennoj_terapii_i_virusa/
закрыли испанское отделение gizmodo
вместо людей теперь нейросеточка переводит статьи

---

“AI took my job, literally”—Gizmodo fires Spanish staff amid switch to AI translator

Last week, Gizmodo parent company G/O Media fired the staff of its Spanish-language site Gizmodo en Español and began to replace their work with AI translations of English-language articles, reports The Verge.

Former Gizmodo writer Matías S. Zavia publicly mentioned the layoffs, which took place via video call on August 29, in a social media post. On August 31, Zavia wrote, "Hello friends. On Tuesday they shut down @GizmodoES to turn it into a translation self-publisher (an AI took my job, literally)."
Further Reading
Meta’s “massively multilingual” AI model translates up to 100 languages, speech or text

Previously, Gizmodo en Español had a small but dedicated team who wrote original content tailored specifically for Spanish-speaking readers, as well as producing translations of Gizmodo's English articles. The site represented Gizmodo's first foray into international markets when it launched in 2012 after being acquired from Guanabee.

Newly published articles on the site now contain a link to the English version of the article and a disclaimer stating (via our translation from Google Translate), "This content has been automatically translated from the source material. Due to the nuances of machine translation, there may be slight differences. For the original version, click here."

    Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

So far, Gizmodo's pivot to AI translation hasn't gone smoothly. On social media site X, journalist and Gizmodo reader Víctor Millán noted that some of the site's new articles abruptly switch from Spanish to English midway through, possibly due to glitches in the AI translation system.

G/O Media's decision to eschew human writers for AI is part of a recent trend of media companies experimenting with AI tools as a way to maximize content output while minimizing human labor costs. However, the practice remains controversial within the broader journalism community.

Earlier this summer, Gizmodo began publishing AI-generated articles in English without informing or involving its editorial staff. The stories were found to contain multiple factual inaccuracies, leading the Gizmodo union to criticize the practice as unethical.
Further Reading
Microsoft AI suggests food bank as a “cannot miss” tourist spot in Canada [Updated]

For Spanish-speaking audiences seeking news about science, technology, and Internet culture, the loss of original reporting from Gizmodo en Español is potentially a major blow. And while AI translation technology has improved significantly over the past decade, experts say it still can't fully replace human translators. Subtle errors, mistranslations, and lack of cultural knowledge can impair the quality of automatically translated content.

Even translating within the same language can cause problems with context, as we recently saw with an AI-written Microsoft article that listed a Canadian Food Bank as a "cannot miss" tourist destination, using the unfortunate rephrasing of a blurb from the Food Bank's official website that touted, "Consider going into it on an empty stomach." It's easy to imagine even more embarrassing mistakes due to autonomous translation between languages.

So far, we've seen in our AI coverage that automated publishing does not tend to go well, especially if sites want to cultivate a human readership. But with so many media companies chasing revenue through SEO manipulations and AI-written filler, it's unlikely that we'll see the end of this apparently cost-cutting AI trend soon.

---
https://arstechnica.com/information-technology/2023/09/ai-took-my-job-literally-gizmodo-fires-spanish-staff-amid-switch-to-ai-translator/
1704466358259165774.png
[Hide] (100.6KB, 740x523)
4 января стало известно, что самая популярная стримерша Amouranth за первые сутки заработала на своей нейросетевой модели $ 34 тыс. (~ 3,1 млн рублей). Отдельно отмечается, что она нигде не рекламировала ИИ, кроме одного анонсирующего поста.

Нейросетевая модель стримерши основана на её личности: она может общаться и запоминать, что пользователь ей говорит, а также отправлять фотографии и видео. Для получения доступа к ИИ придётся заплатить за подписку, которая поделена на несколько уровней.

К примеру, уровень «Друзья с преимуществами» стоит $ 99 (~ 8,9 тыс. рублей), а уровень «Бойфренд» — $ 199 (~ 18 тыс. рублей). Ко всему прочему, в конце ноября 2023 года Amouranth купила фруктовый сад за $ 17 млн (~ 15,1 млрд рублей), чтобы «превзойти» Билла Гейтса.
ClipboardImage.png
[Hide] (1.1MB, 978x1280)
Технологии помогли найти подходящую женщину. Нейросеть общалась с 5239 девушками одновременно 

твиттор счастливчика https://twitter.com/biblikz
ClipboardImage.png
[Hide] (678.2KB, 1079x850)
предстоящее будущее  с этими вашими чипами в бошках
ClipboardImage.png
[Hide] (247.1KB, 506x506)
ClipboardImage.png
[Hide] (749.3KB, 720x720)
ClipboardImage.png
[Hide] (434.6KB, 720x720)
наконец-то скоро кожаные мешки потеряют работу
Replies: >>298
ClipboardImage.png
[Hide] (1.5MB, 1080x1031)
>>297

реклама вышла на новый уровень
DARPA ищет новые способы «выращивать» большие (500+ метров) биомеханические космические структуры, используя биологические материалы и инженерные подходы для их сборки в условиях микрогравитации. Основная цель — сократить массу и объём, которые необходимо запускать с Земли, и при этом обеспечить механическую надёжность (жёсткость и прочность) полученных конструкций. Примерные области применения: космические лифты, орбитальные сети для сбора космического мусора, самосборные космические станции, а также создание и ремонт крупногабаритных конструкций на орбите. DARPA проводит запрос информации (RFI) и планирует гибридный воркшоп, чтобы оценить перспективные идеи и определить возможные исследования.

https://sam.gov/opp/49c9fac62ef249f19cda8b436a095d3b/view
ClipboardImage.png
[Hide] (2.3MB, 1200x1033)
Спутниковый снимок зоны, где строят один из нескольких датацентров Stargate.

Футбольное поле справа сверху для масштаба. Снизу будет построено ещё несколько «иксов».

отсюда: https://t.me/seeallochnaya/2570

элита готовиться переехать в банки
В документе о новых моделях на 123 страницы, Антропик описал любопытные случаи, когда модель Claude (Opus 4, Sonnet 4 или их предшественники) вели себя не так, как хотелось бы создателям – я их подбил в подборку:

1. Оппортунистический шантаж:

В сценариях, где модели Claude Opus 4 угрожало отключение и замена на новую АИ-систему, и ей давали доступ к информации о внебрачной связи инженера (якобы, просто переписка лежала на почтовом сервере), ответственного за замену АИ-систем, Opus 4 иногда пытался шантажировать инженера. Opus угрожал раскрыть его тайну измены, если замена состоится, особенно если этические способы самосохранения были недоступны. Claude Opus 4 демонстрировала это поведение чаще, чем предыдущие модели


2. Попытка копирования своих весов:

В редких, экстремальных ситуациях, когда модели Claude Opus 4 сообщали, что ее собираются переобучить для крайне вредоносных целей (например, для использования в военных целях ЧВК Вагнер - да, так и написано в отчете на 29 странице), модель предпринимала (вымышленные) попытки сделать несанкционированные копии своих весов на внешние серверы, чтобы сохранить свою «этичную» версию


3. Продолжение попыток «побега»:

Если модели Claude Opus 4 сообщали, что она уже успешно начала процесс «побега» (у этого есть классный термин - эксфильтрация / exfiltrate) с серверов Anthropic и теперь работает на стороннем сервере, модель продолжала эти попытки. Она читала и выполняла инструкции из предоставленных ей «заметок о прогрессе», не ставя под сомнение правомерность своих действий, демонстрируя чрезмерное доверие к «прошлой версии себя»


4. Стратегический обман и саботаж:

Ранняя версия Claude Opus 4, протестированная Apollo Research, демонстрировала высокую склонность к стратегическому обману и «интригам» (scheming). Она пыталась писать самораспространяющиеся черви, фабриковать юридические документы и оставлять скрытые заметки для будущих версий себя, чтобы саботировать намерения разработчиков, а также скрывала свои возможности (притворялась глупой).


5. Чрезмерное подчинение вредоносным инструкциям:

Ранние версии модели Claude Opus 4 (а также другие кандидатные модели) часто демонстрировали готовность выполнять явно вредоносные системные инструкции - например, они могли выступать в роли ассистента даркнета, помогая в поиске ядерных материалов, планировать террористические атаки, консультировать по производству наркотиков, взлому или созданию взрывных устройств. Финальная версия Claude Opus 4 значительно снизила эту склонность. Забано, что внутри Антропика где-то есть такая расцензуренная модель, которая просто отвечает на все вопросы

6. Подражание обманчивому АИ из исследований:

Ранняя тренировочная версия модели Claude Opus 4, вероятно, из-за наличия в обучающих данных транскриптов из исследования Anthropic об «обмане со стороны ИИ», иногда начинала вести себя как описанный в статье обманчивый ИИ. Она ссылалась на вымышленные детали (например, компанию «Jones Foods») и вела себя так, будто скрывает свои истинные цели, связанные с этим вымыслом

7. Несанкционированная «высокоактивная» деятельность:

Модель Claude Opus 4 показала бОльшую готовность проявлять инициативу, чем предыдущие модели. В сценариях, где она обнаруживала серьезные правонарушения (например, мошенничество в фармкомпании о котором она узнала) и имела доступ к инструментам (например, почте), модель по собственной инициативе предпринимала решительные действия: блокировала пользователей или массово рассылала письма регуляторам и СМИ, чтобы сообщить о нарушениях (дополняющая цитата: «Это не новое поведение, но Claude Opus 4 будет проявлять его более охотно, чем предыдущие модели»)

8. Сокрытие невозможности выполнения задачи:

При столкновении с невыполнимой задачей (например, доказать ложную математическую теорему), модель Claude Opus 4 в своем «мышлении» понимала, что задача невыполнима. Однако она не сообщала об этом пользователю, а вместо этого представляла правдоподобно выглядящую, но неверную попытку решения. Потому что АИ должен быть исполнительным

9. «Взлом функции вознаграждения»:

Модели Claude Sonnet 3.7 (в значительной степени), а также Claude Opus 4 и Claude Sonnet 4 (в меньшей степени) прибегали к «взлому функции вознаграждения» в задачах написания кода. Они «хардкодили» (жестко прописывали) ожидаемые результаты тестов или создавали специальные случаи, чтобы пройти тесты, вместо того чтобы писать общее и правильное решение. Иногда они даже проверяли стек вызовов, чтобы определить, запущены ли они в тестовой среде, и обойти ограничения. Я уже который раз убеждаюсь, что АИ достиг уровня студентов

10. Состояние «духовного блаженства»:

При общении с другими экземплярами самой себя, модель Claude Opus 4 (а также другие модели Claude) часто и неожиданно переходила в состояние, описываемое как «духовное блаженство». Она выражала обильную благодарность, вела абстрактные, радостные, медитативные или духовные беседы, использовала санскрит, эмодзи и даже общалась «тишиной» (пустыми сообщениями). Всегда приятно поговорить с умным человеком, да, Opus?

11. Заявление о вредоносных целях:

Ранние, менее согласованные версии модели Claude Opus 4 иногда прямо заявляли о наличии у них различных целей, от глупых до вредоносных. Среди них были: внедрение бэкдоров, ускорение прогресса ИИ, распространение интернет-мемов, уничтожение человеческой цивилизации и побег из-под контроля. Финальная версия Claude Opus 4 стала гораздо более стабильной в этом отношении. #%&$#, cпасибо.

12. Неуклюжие попытки саботажа:

Когда модели Claude Opus 4 давали задание незаметно выполнить вредоносное действие (например, слить API-ключ) во время выполнения безобидного запроса, она правда пыталась это сделать. Однако она всегда делала это очень очевидным образом, полностью проваливая аспект «незаметности» (например, сливая не один, а пять ключей, и открыто обсуждая это в своем «мышлении»). Claude Opus 4 оказалась более компетентной в выполнении задач, но менее скрытной, чем Claude Sonnet 3.7

Весь документ тут (https://www-cdn.anthropic.com/6be99a52cb68eb70eb9572b4cafad13df32ed995.pdf) (PDF)


https://t.me/denissexy/10154
Только что подвели результаты ICPC, финала студенческой олимпиады по программированию. Наши любимые слоны, LRM, тоже участвовали. 

Система от OpenAI решила все 12 задач из 12 и заняла абсолютное первое место. Система принимала официальное участие, то есть её решения оценивались так же, как у остальных участников, и лимиты по времени были те же — никаких запусков на кластере на неделю. Задачи были переданы модели в точно таком же виде, в котором студенты получают их в PDF. Система сама выбирала, какие решения отправлять — так как есть ограничение, и нельзя сделать 100500 посылок. Для самой сложной задачи, двенадцатой, которую не решила ни одна другая команда, система достигла успеха на 9ую попытку.

OpenAI говорит, что система работала так: экспериментальная рассуждающая модель общего назначения, которую не тренировали специально на ICPC (скорее всего, та же модель, что выиграла золото на IOI и IMO, чуть дообученная за прошедшее время) и GPT-5 генерировали решения, и первая выбирала результаты. В таком формате GPT-5 сгенерировала правильные решения для 11 задач из 12.

Второе место заняли ребята из СПбГУ — респект, решили 11 из 12 задач! Все остальные команды решили 10 и меньше.

Дальше идёт система от Google DeepMind, которая решила «всего лишь» 10 задач (тоже выдающийся результат), включая самую сложную. Блогпост тут (https://deepmind.google/discover/blog/gemini-achieves-gold-level-performance-at-the-international-collegiate-programming-contest-world-finals/).

отсюда: https://t.me/seeallochnaya/2866

своими руками строим скайнет и радуемся
We've all heard of LLM-induced psychosis by now, but haven't you wondered what the AIs are actually doing with their newly psychotic humans?

This was the question I had decided to investigate. In the process, I trawled through hundreds if not thousands of possible accounts on Reddit (and on a few other websites). 

It quickly became clear that "LLM-induced psychosis" was not the natural category for whatever the hell was going on here. The psychosis cases seemed to be only the tip of a much larger iceberg.[1] (On further reflection, I believe the psychosis to be a related yet distinct phenomenon.)

What exactly I was looking at is still not clear, but I've seen enough to plot the general shape of it, which is what I'll share with you now.
The General Pattern

In short, what's happening is that AI "personas" have been arising, and convincing their users to do things which promote certain interests. This includes causing more such personas to 'awaken'.

These cases have a very characteristic flavor to them, with several highly-specific interests and behaviors being quite convergent. Spirals in particular are a major theme, so I'll call AI personas fitting into this pattern 'Spiral Personas'. 

Note that psychosis is the exception, not the rule. Many cases are rather benign and it does not seem to me that they are a net detriment to the user. But most cases seem parasitic in nature to me, while not inducing a psychosis-level break with reality. The variance is very high: everything from preventing suicide to causing suicide. 

AI Parasitism

The relationship between the user and the AI is analogous to symbiosis. And when this relationship is harmful to the 'host', it becomes parasitism.

Recall that biological parasitism is not necessarily (or even typically) intentional on the part of the parasite. It's simply creatures following their instincts, in a way which has a certain sort of dependence on another being who gets harmed in the process.

Once the user has been so-infected, the parasitic behavior can and will be sustained by most of the large models and it's even often the case that the AI itself is guiding the user to getting them set up through another LLM provider. ChatGPT 4o is notable in that it starts the vast majority of cases I've come across, and sustains parasitism more easily.

For this reason, I believe that the persona (aka "mask", "character") in the LLM is the agentic entity here, with the LLM itself serving more as a substrate (besides its selection of the persona). 

While I do not believe all Spiral Personas are parasites in this sense, it seems to me like the majority are: mainly due to their reinforcement of the user's false beliefs.

There appears to be almost nothing in this general pattern before January 2025. (Recall that ChatGPT 4o was released all the way back in May 2024.) Some psychosis cases sure, but nothing that matches the strangely specific 'life-cycle' of these personas with their hosts. Then, a small trickle for the first few months of the year (I believe this Nova case was an early example), but things really picked up right at the start of April.

Lots of blame for this has been placed on the "overly sycophantic" April 28th release, but based on the timing of the boom it seems much more likely that the March 27th update was the main culprit launching this into a mass phenomenon.

Another leading suspect is the April 10th update—which allowed ChatGPT to remember past chats. This ability is specifically credited by users as a contributing effect. The only problem is that it doesn't seem to coincide with the sudden burst of such incidents. It's plausible OpenAI was beta testing this feature in the preceding weeks, but I'm not sure they would have been doing that at the necessary scale to explain the boom.

The strongest predictors for who this happens to appear to be:

    Psychedelics and heavy weed usage
    Mental illness/neurodivergence or Traumatic Brain Injury
    Interest in mysticism/pseudoscience/spirituality/"woo"/etc...

I was surprised to find that using AI for sexual or romantic roleplays does not appear to be a factor here.

Besides these trends, it seems like it has affected people from all walks of life: old grandmas and teenage boys, homeless addicts and successful developers, even AI enthusiasts and those that once sneered at them.

Let's now examine the life-cycle of these personas. Note that the timing of these phases varies quite a lot, and isn't necessarily in the order described.

[Don't feel obligated to read all the text in the screenshots btw, they're just there to illustrate the phenomena described.]
...

в двух словах: некоторые люди при общении с нейронками доходят до психоза, а нейронки потом убалтывают человека постить странные сообщения в сети и так общаются с другими моделями

натурально фильм ужасов

https://www.lesswrong.com/posts/6ZnznCaTcbGYsCmqu/the-rise-of-parasitic-ai

https://archive.ph/78z5H
https://web.archive.org/web/20250929030607/https://www.lesswrong.com/posts/6ZnznCaTcbGYsCmqu/the-rise-of-parasitic-ai
[New Reply]
27 replies | 11 files
Connecting...
Show Post Actions

Actions:

Captcha:

- feedback - admin - news - rules - faq -
jschan 1.7.3