хочу сюди!
 

Татьяна

56 років, телець, познайомиться з хлопцем у віці 55-58 років

Замітки з міткою «ии»

О «cancel culture», или как не дать себя «стереть» и уничтожить

В свое время в росверсии Википедии увидел информацию, где якобы лидеры Украины поощряли наградами и почетными званиями откровенно пророссийских бизнесменов, которые уже тогда были под санкциями СНБО, а затем попали и под подозрение СБУ за финансовые злоупотребления во вред стране. Сейчас они не в Украине, а отдельные даже просят ПМЖ за границей. Кстати, в украинской версии Википедии этих «реверансов» с награждениями нет, что еще раз подтверждает логику действий роспропаганды: фейки – ИПСО – «культура отмены» («культура стирания») – «культура уничтожения».

И вот буквально на днях увидел несколько статей, в которых роспропаганда, наняв переводчиков на разные европейские языки, запустила широкую кампанию дискредитации руководства МОУ и высших руководителей СНБО. Цель знакома – внести смуту и возбудить злость на власть в массах украинцев.

Явление, о котором пойдет речь, я скорее бы называл не «культурой отмены» (как это переводится дословно с английского и чаще всего у нас употребляется), а именно «культурой стирания», которая уверенно трансформируется в «культуру уничтожения». Объясню, почему так считаю на примерах из собственной политической жизни, в том числе.

«Культура отмены» (cancel culture) – возникший в США и Европе социально-политический термин. Это современная форма остракизма, при которой человек или определенная группа людей лишаются поддержки, подвергаются осуждению в социальных или профессиональных сообществах как в онлайн-среде и социальных медиа, так и в реальном мире.

«Культура стирания» – сейчас это уже не так, что человека вычеркивают отовсюду. Его пытаются умножить на 0! Это не то, что человек не упоминается в СМИ, не активен в публичном пространстве. Его прямо атакуют и такая атака – беспощадна. Поэтому, уже логичнее называть это все «культурой уничтожения».

Изначальная суть «cancel culture» была в том, чтобы вооружить посредством интернета и технологий слабых и даже маргинальных людей, которые никак не могут противостоять нападкам. У них нет денег на хороших юристов или лоббистов, нет должного уровня образования и образованности. Их просто стыдят в интернете, а они ничего не могут сделать. А так они могли бы, посредством того же интернета и соцсетей, высказать собственную позицию и попросить, к примеру, своих единомышленников в какой-то степени защитить их от откровенного хейта. Но, очень быстро это все превратилось в полностью иное, в полное извращение первоначальной сути «культуры стирания». Сейчас «cancel culture» начала уничтожать именно самых слабых и маргинальных людей.

Пример. Бедный простой учитель в школе не упал на колени перед ворвавшимся экстремистом. Он защитил себя. Правильно поступил? По логике – конечно. Но, потом такого учителя почитатели этого экстремиста начинают перманентно стыдить и унижать. Хейтеры потом пишут о нем всякие гадости, залазят в его личную жизнь, семью, инициируют травлю его детей, родственников, друзей. Стыдят везде, где только возможно: в социальных сетях, блогах, на разных сайтах. Что в итоге? Такого учителя школа увольняет с работы, его детей выбрасывают из учебных заведений. Часто такой человек потом сводит счеты с жизнью. Это жутко. Но, что интересно тут, что новая технология, о которой все больше и больше пишут – искусственный интеллект (ИИ), способна не просто мобилизировать группы хейтеров, которые станут атаковать других, а генерировать такие фейковые группы. Тоесть, уже не нужно будет убеждать, к примеру, 100К дегенератов, что какого-то бедного учителя нужно облить грязью и довести до предела, а можно создать ложную группу людей – ботов или целое фейковое движение, которое будет целенаправленно это делать. Не нужно уже кого-то просить или уговаривать. Это уже не будут реальные люди, а будут виртуальные боты, сгенерированные ИИ.

Есть много публикаций, где можно почитать об известных публичных фигурах, которых «стирали». Некоторые после «стирания» таки возвращались, становясь еще сильнее. Но, возвращались, как правило, мощные личности, у которых были деньги, связи и, самое главное, очень сильный характер. Такие люди могут выдержать «стирание» и вернуться в строй. А слабых «стирают» беспощадно и безвозвратно. В этом и есть вся суть «культуры стирания». Слабым людям вернуться на их прежний уровень практически нереально.

Думаю, что совет здесь – очень важный момент. В каждой ситуации есть разные стратегии реагирования на «стирание».

Например, обо мне лично в свое время были разные грязные публикации, которые однозначно имели заказной характер. Писали, что я когда-то имел контакты с Манафортом; какие-то мои финансовые вопросы искажались; публиковали, что я не проплатил что-то по кредитной карточке; что организовывал какие-то встречи в Вашингтоне; что присутствовал на совещании в Израиле с Владимиром Зеленским перед началом его президентской избирательной кампании, где высказывал соображения как консультант. Писали много чего. Что-то из этого было в действительности, например, встреча в Израиле и другие значимые моменты, связанные с моей профессиональной деятельностью. Но, подавляющее большинство публикаций были откровенной ложью и заказухой. И я хорошо знаю, чьей именно.

Как вести себя в зависимости от сложившейся ситуации.

Например, если ты сделал что-то явно плохое по своей сути, к примеру, ударил женщину, пытался ее унизить, угрожал, пугал расправой, то тут стоит извиниться, попытаться компенсировать этой женщине ущерб, лечение (если необходимо), признать свою вину на любом уровне публично. Нужно дать людям понять, что ты осознал свой проступок и готов дальнейшими действиями это подтверждать. Это не будет проявлением слабости. Наоборот. Как известно, свои ошибки публично признают исключительно сильные люди.

В ситуации же, когда ты не делал ничего плохого, а другие просто воспользовались твоей временной неуверенностью или жизненными сложностями, раскрутили некую ситуацию до небес, то, прежде всего, тебе нужно реагировать. Надо отвечать, разоблачая самих «стирателей». И объяснять максимально широко, что это – заангажированные люди, проплаченные движения, что обвинения неправдивы, а интерес этих людей один – сбить тебя с пути. Нужно объяснять, что есть твоя история – реальная, а не та, которую раскрутили, оболгав и понапридумывав о тебе всяческих небылиц.

Самое главное – не молчать. Главное – не давать себя «стереть». Это то, что в свое время сделал я. Не молчал, а довольно жестко отвечал публично на разные фейковые обвинения в мой адрес всяких откровенных мерзавцев, которые когда-то распространяли обо мне всякий бред, проплачивая публикации и в украинских медиа также.

Есть и «золотая середина» поведения. Это если что-то было тобой сделано не совсем корректно, не полностью неправильно, а что-то можно было сделать лучше, но криминала в этом не было. Просто, например, твою личную точку зрения какая-то часть людей восприняла негативно сугубо под своим субъективным углом зрения. Тогда можно развернуть ситуацию в другую сторону, найти свою коалицию – людей, которые согласны с твоей позицией. И тогда можно «стереть» тех, кто пытался тебя «стереть», разоблачив и обезоружив твоих критиков-хейтеров.

Резюме. В США очень часто и много говорят о мощи искусственного интеллекта. К сожалению, ИИ начнет играть в теме «стирания – уничтожения» далеко не последнюю роль. Он будет вооружать «культуру уничтожения». Уже не нужно будет убеждать всяких дебилов заниматься подобными вещами, а можно будет создать искусственных дебилов, которые время от времени будут набрасываться на определенных субъектов и множить их на 0.

ИИ – это бомба, которой можно будет пользоваться как для правильных дел, так и для черных делишек. ИИ в руках «стирателей» – страшнейший инструмент.

С ИИ станет легче обманывать в иммитированной реальности

Неделю назад американские сенаторы провели свой первый секретный брифинг на тему искусственного интеллекта (ИИ), где выразили повышенную озабоченность относительно рисков, связанных с данной технологией. Речь также шла об отсутствии в законодательном поле США четких направлений по регулированию стремительно развивающейся отрасли. Метко высказался по этому поводу сенатор-республиканец от штата Луизиана Джон Нили Кеннеди: «У ИИ есть невероятный потенциал сделать нашу жизнь лучше... Если это не убьет нас первыми».

В последние месяцы Конгресс и администрация США всеми способами пытаются лучше понять риски и преимущества ИИ. В то же время чат-боты на основе искусственного интеллекта (ChatGPT от OpenAI и Bard от Google), а также инструменты на базе видео, аудио и изображений, усиливают опасения американских политиков по поводу распространения ложной информации из «галлюцинаций» или из массива фейков, которыми чат-боты обмениваются между собой. Также обсуждаются дополнительные риски того, что технологии могут быть использованы в качестве оружия.

В чем, собственно, состоит суть волнений в США, когда речь заходит об ИИ. Суть в том, что у нас опасаются, что иностранные структуры (хороший пример тут – Россия или Китай) будут влиять на нашу государственную систему. Не просто смогут влиять на наши выборы или еще какие-то значительные события, а на наши крупные корпорации, на нашу экономическую систему в целом. Это всех сфер жизни касается – и политики, и экономики. Ведущие компании США, те, кто находится в этом ИИ-мире, поддерживают наше общее волнение. Они говорят, мол, политики абсолютно правы потому, что, в принципе, тут же не идет речь о правде, а имеет место имитация реальности.

Посредством ИИ мы попадаем как будто бы в видео игру. Это как извращение будущего. Мы попадаем туда, где, например, все может стать фейковым – счета компаний, фотографии людей, данные разных служб и так далее. Поэтому и возникает страх относительно того, что ожидается в будущем.

Одно дело, когда что-то создавалось хоть и, скажем так, несколько корявой ординарной технологией, где работали реальные люди, где можно было что-то реально разоблачить или понять, то ИИ создает мир, где можно будет еще намного больше, но уже искусственно, влиять на СМИ, усиливать пропаганду, корректировать общественное мнение. У нас на разных уровнях этот вопрос обсуждается именно в подобном ключе. Что можно будет проникать в то, что секретно; что можно будет еще больше производить хакерских атак; что-то еще чаще взламывать или кого-то подчинять. Все может кардинально поменяться, кардинально.

Поэтому, наши конгрессмены и сенаторы говорят, что, во-первых, необходимы законы, которые бы как-то это все регламентировали. Во-вторых, нужна прозрачность в процессе деятельности ИИ-мира.

Например, сейчас у меня есть клиент, который хочет сделать личный блог. Я ему посоветовал хороших консультантов, так вот они говорят, что известный ChatGPT уже везде блокируется. Они говорят, что могут разрабатывать идеи, не вопрос, но должны быть живые люди, которые будут в итоге все переписывать. Потому, что разные системы уже подхватывают эти базовые разработки, как тот же ChatGPT, и блокируют их. Поэтому, человек сможет публиковать что-то у себя, например, на сайте, но чтобы это захватывалось Google и показывалось при поиске – тут возникнут проблемы. У другого моего приятеля есть компания, связанная с PR, и они тоже не могут пользоваться продуктами ИИ потому, что те начинают блокироваться везде.

Поэтому, у нас, как правильно отмечают сенаторы США, волнение больше о том, что станет легче обманывать. Все, чего мы боимся или с чем сражаемся, станет мега мощнее и уже крайне тяжело будет это поймать. Вопрос опять же об ответственности, как для СМИ. Системы ИИ – это же, по сути, масс медиа. К примеру, кому-то уже не нужно будет в реальности мотивировать какие-то тупые маргинальные группы, чтобы они кого-то уничтожили, мотивировать всплеск Cancel Culture (культуры отмены) и так далее. Человек уже может все это самостоятельно создать. Он уже сам может создать, например, свою армию ботов. Он может сам создать движение, диаспору. Тоесть, если кто-то захочет, чтобы те же иранцы в том же LA начали резко ненавидеть какую-то тему, то никого не нужно будет ходить мобилизировать и уговаривать, а стоит лишь создать фейковую группу от якобы какой-то большой иранской общины и все будет быстро и эффективно.

Вот это и вызывает в США страх и волнение. Проблема, как говорят сами политики, в том, что всегда очень тяжело регулировать технологии. ИИ – технологии, которые не имеют барьеров. ИИ может быть везде. Но, наши политики хорошо понимают, что и остановить это уже тоже невозможно. Кто и как сможет остановить ИИ? Никак. То, что сами компании сейчас блокируют публикации, которые генерируются через ChatGPT, так это временное явление. Вот поэтому наши политики обеспокоены и соглашаются с тем, что проблема есть, ее нужно продолжать обсуждать и как-то решать. Что-то нужно сделать, они уверены, иначе эти новые технологии могут уничтожать наши ценности. Технологии будут маскировать правду, будут открывать двери для иностранных соперников, чтобы те влияли не только на нашу политическую жизнь, а и на все наши системы функционирования. На нашу банковскую систему, это как пример. Поэтому, сейчас у нас действительно определенная паника касаемо этого вопроса.

Я думаю, что обязательно по этой теме будут какие-то новые законы приниматься, будут новые нормы регистрации каких-то инновационных вещей. И думаю, что будут также новые наказания для тех, кто захочет воспользоваться системами ИИ неправильно или кому-то во вред.

Системы ИИ сейчас в США – очень важная тема. Мы впереди всех по многим вопросам, поэтому для нас это так и актуально. Сейчас, я бы сказал, мы вошли в технологический кризис и нужно думать, как его минимизировать в пользу здравого смысла.

Учим монгольский вместе с гуглом



Гугл переводчик на днях порадовал ржакой. Зайдите в гугл-транслейт, выберите язык источника монгольский, а перевод на русский. Начинайте вводить гласные в левое поле. Вот просто подряд - ааааааа, ууууууу, и т.д. Только не спешите, начиная с третьей-четвертой-пятой подряд идущей гласной вас ожидают изумительные варианты перевода с монгольского на русский. Привел несколько примеров - а дальше монгольский можете выучить и без меня. Гугл, как говорится, в помощь...

В рамках проекта "Душа наизнанку недорого"
Карта Приватбанка - 5168 7573 2914 3327
МТС - 099-698-55-84
Map

ИИ ...

Просмотрел пару видео на тему искусственного интеллекта и разочаровался. Создается впечатление что технологии в данном направлении совсем не развиваются. Поэтому решил написать статейку дабы хоть как-то популяризировать столь важную тему. Бегло остановившись на проблемах уже готовых наработках и перспективах. Вышло сумбурно, но я надеюсь вернутся к данной тематике в дальнейшем и исправится.  

Одна из проблем  искусственного интеллекта в том, что трудно найти критерии, по которым можно было бы с уверенностью сказать, что это действительно интеллект. Само понятие интеллект и разумность довольно расплывчато и условно. Уже сейчас машины могут выполнять задание, с которыми не справляются люди. Вычисления уже на столько сложны, что можно буквально моделировать реальность. В  т.ч. и интеллект. Чем мощнее машина, чем продуманнее и качественнее программа и чем больше данных получено, тем больше результат модели приближается к действительности. Более того многие модели уже не являются  жалкой пародией на реальность, а дополняют её становясь полноценной частью реальности. Об этом многие обыватели забывают, считая, что виртуальный мир не реален. Они путают виртуальный мир с физическим. В этом их главная ошибка. И эта ошибка распространена повсеместно. С таким же успехом можно было бы сказать, что мир мыслей не реален. Да, он не является физическим, как и компьютерный код. А точнее и то и другое это процессы… Сложные электрические процессы или в нейронах или в микросхемах. Тем не менее, результат данных процессов порой трудно назвать  не реальным. Оглянитесь вокруг. Практический все, что окружает нас (людей цивилизованного общества) это продукт интеллекта. Столы, дома, заборы, плотины, атомные электростанции и компьютеры. Чем дальше, тем больше в этом всем видно именно участие компьютеров и машин. Я очень надеюсь, что все в скором будущем будут делать роботы, а человек займет свое почетное место как неординарная деталь, сердце и бриллиант в золотом организме неожизни  в которой стерты границы между биологией и технологией. Которая включает в себя как живую, так и не живую материю. Хотя это возможно наступит еще не скоро. А может и вовсе не наступить т.к. даже не всех людей, на мой взгляд, можно отнести к разумным. Это просто биороботы тормозящие, развитие и прогресс. Они работают по программам: жрать, спать , срать.  Так что многие с них вряд ли даже тест Тьюринга пройдут.  Поэтому я считаю, что бы будущее наступило, а мы не топтались на месте, погрязши в междоусобицах и мелочных пороках: типа коррупции, безграмотности, обману и т.д., надо пропагандировать именно беспристрастные научные взгляды, и популяризировать передовые актуальные направления. В частности ИИ. Увы, пока все это на уровне баловства и балабольства типа GAIA. Хотя уже начинают создавать роботов болтунов для андроида AIVC, Robin и подобные. В основном они  действуют  по примитивным схемам, так же есть мощные компьютеры типа Ломоносова и  Watson. А вот для ПК почему-то нормальных вразумительных помощников все не как не сделают.  Впрочем, для ПК до сих пор не как не сделают нормальную операционную систему. Линукс все еще  сырой, а виндовс после ухода Гейтса деградирует . Лучшее что у них получилось это Хр и офис.  В общем развитие что естественного что искусственного интеллекта замедлилось. Например, до сих пор нет нормальных синтезаторов речи работают все на тех что были созданы лет 10 назад и лишь слегка модернизированы. Я уже молчу за распознание речи и образов (в частности лиц). Ну и естественно что-то не слышал, что бы машина все токи прошла тест Тьюринга, а вы? Так что говорить о полноценном искусственном интеллекте еще очень, очень рано. Машины толком не могут анализировать информацию обыденного физического мира  самостоятельно, куда уж там до какого то синтеза. Конечно есть узко специализированные роботы которые лучше человека ориентируются в пространстве и к примеру, находят цель (самонаводящиеся ракеты), но они узко специализированы и не предназначены для развития. В принципе если собрать все что уже сделано в едино и выстроить хорошую иерархию алгоритмов, то может получился бы полноценный ИИ смахивающий на человека. НО где это все? Может в каких-то лабораториях? Почему-то я не наблюдаю что бы ИИ входил в нашу жизнь на уровне человека. Повторюсь мы топчемся на месте. Остались одни соплеживатели которые пришли пожирать лавры творческих людей и пассеонарных личностей отодвинув их на задворки цивилизации.
В общем с ИИ еще работать и работать. Банально что не кто не хочет и не делает даже элементарных вещей, а думает, как Дмитрий Побединский с видео про ИИ – «А… ИИ уже создан…» И начинает рассказывать про какие-то гормоны, поцелуи и др. чушь. Впрочем, он хотя бы упомянул о ИИ в отличии от разных блоХеров которые вовсе играют именно на низких животных комплексах. А люди им потакают смотрят ставят лайки – иржут. Почему людям для того что бы почувствовать себя человеком надо оттянутся по конский или нажраться по свинский?
Не можете создать ИИ ну так хотя бы банально скопируйте его. Как это обычно делают. Природа ведь уже создала. Т.е. просто надо создать программу которая бы постоянно мониторила и пыталась бы парадировать людей и заниматься самообучением как АйКУб, а также, старалась самосовершенствовать эти процессы. Создать такого интеллектуального робота можно уже сейчас.  Хотя в отличии от АйКУб можно было бы начать не с нуля, а на основе базы и уже готовых программ.  Программа должна быть универсальной работать на любой ОС или хотя бы конвертировать базу данных, уметь самостоятельно искать в интернете термины, определения и главное анализировать их, распознавать речь и уметь синтезировать. Уметь понимать синтаксис текстов, иметь хороший алгоритм логики, самообучения, работать над ошибками,  прогнозировать и моделировать внешний Мир в своей песочнице (как бы лаборатория для тестирование раздумий, у людей она есть, это внутренний мир).  
Ведь уже можно хотя бы такое сделать.  А дальше усложнять задачу. По крайней мере, если не получится создать интеллект, то можно будет сделать копию личности живого человека, если он будет постоянно пользоваться ИТ-помощником, накапливающим и анализирующим всю информацию о человеке.  Но программа должна не просто болтать, а уметь для начала распознавать текст, речь, изображение. Обладать комплексным анализом и сопоставлением. Выбором приоритетов, многоуровневым мышлением. Т.е. мышлением как у человека, у которого если задача не решается на высоком уровне включается более низкий подстрахованный. И напротив если задача становится автоматичной, то уже когнитивная деятельность не задействуется, а сам процесс переходит на уровень ниже – мозжечок средний мозг и т.д. В общем все по образу и подобию…  
П.с. куда более полезное и интересное видео:  «Новые умные роботы. Искусственный интеллект.» Жаль, что таких видео мало, и они только вскользь затрагивают данную тему не углубляясь в проблемы и альтернативы.  Но повторюсь: когда уже появится новый Маркони который соберет все в один ящик и сорвет фурор. И когда объявится новый Билл Гейтс который скажет, что робот, как и ПК должен быть персональным девайсом каждого.  Впрочем в отличии от ПК не факт что,  разрешат роботов. Возможно запретят по каким-то надуманным страхом как ГМО? Тем не менее, использовать ИИ в ПК уже можно. Но увы…
наверх
в закладки