Искусственный интеллект - текущие мировые события

Ветераны ИИ-отрасли призвали возложить ответственность за вред от ИИ-продуктов на их разработчиков

robot.jpg


Высокопроизводительные системы искусственного интеллекта (ИИ) угрожают социальной стабильности, а ИИ-компании должны нести ответственность за вред, причинённый их продуктами – об этом заявила группа отраслевых экспертов, включая основоположников соответствующих технологий, лауреатов премии Тьюринга Йошуа Бенжио (Youshua Bengio) и Джеффри Хинтона (Geoffrey Hinton), пишет во вторник The Guardian.

«Пора уже задуматься по поводу передовых ИИ-систем, — заявил профессор компьютерных наук Стюарт Расселл (Stuart Russell) из Калифорнийского университета в Беркли. — Это не игрушки. Повышать возможности таких систем прежде, чем понять, как обезопасить их, в высшей степени безрассудно».

По словам эксперта, за магазинами по продаже бутербродов надзор жёстче, чем за ИИ-компаниями.

Специалисты призвали правительства принять ряд мер, включая:

выделение третьей части всех правительственных средств, направленных на ИИ-исследования и разработки, а также трети всех денег компаний, зарезервированных на НИОКР, для обеспечения безопасного и этичного использования ИИ-систем;
предоставление доступа независимым аудиторам в ИИ-лаборатории;
введение системы выдачи лицензий на создание передовых [ИИ]-моделей;
принятие ИИ-фирмами специальных мер безопасности на случай обнаружения опасных возможностей в их моделях;
возложение ответственности на технологические компании за ущерб от их ИИ-систем, который можно было предвидеть и предотвратить.

Напомним, в мае группа ведущих инженеров, глав компаний и учёных опубликовали предупреждение об экзистенциальной угрозе технологий искусственного интеллекта (ИИ) для человечества.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 
Хозяин копирайта требует десятки миллионов долларов от разработчика ИИ

Один из крупнейших мировых лейблов Universal Music Group и плеяда независимых лейблов поменьше подали иск против компании Anthropic за массовое нарушение копирайта при тренировке машинной модели.
Ты зачем чужие песни поешь
Universal Music Group подала в суд на стартап с использованием искусственного интеллекта (ИИ) Anthropic за нарушение авторского права. Один из крупнейших мировых лейблов обвиняет разработчиков ИИ-чатбота Claude в использовании текстов песен, права на которые принадлежат Universal, без разрешения. Сумма иска составила $75 млн.

Как сообщает издание SiliconAngle, истцы утверждают, что создатели чат-бота использовали при обучении ИИ собранные из открытых источников тексты песен, авторы которых связаны контрактами с Universal.

23_10_23_muzyka_600.jpg

Фото: freepik / Фотобанк Фрипик

Более того, сами эти открытые источники в значительной степени представляют собой вполне официальные агрегаторы песенных текстов, функционирующие также по лицензии от правообладателей.

«Вследствие массового копирования и переваривания текстов песен, права на которые принадлежат музыкальным издателям, модели Anthropic генерируют идентичные или практически идентичные копии этих текстов, что прямо нарушает права издателей», - говорится в иске.

Истцы также указывают, что ИИ-модели сгенерируют тексты к песням, даже запрос на это отсутствует, и даже напишут целые песни на заданную тему, с прогрессиями аккордов и музыкальными структурами, которые будут очень близки к работам определённых артистов и писателей музыки, а иногда и идентичны им.

В иске говорится, что Anthropic без проблем выводит полный текст композиции группы Police «Every Breath You Take», права на которые перешли к Universal в 2022 году после приобретения всего каталога песен, написанных Стингом.

Таким образом, по мнению истцов, Anthropic нарушает авторское право.

«Отказываясь лицензировать контент, который Anthropic копирует и распространяет, компания лишает издателей и их авторов контроля над их защищенными копирайтом работами и привилегий, заработанных тяжким творческим трудом», - говорится в иске.

Главное - вовремя оказаться на волне
Иск появился на волне растущего негодования со стороны деятелей искусств и правообладателей типичной для разработчиков генеративного ИИ практики использования чужих работ без оглядки на позицию авторов и правообладателей. Это уже привело к судебным искам со стороны художников и литераторов к разработчикам ИИ.

В частности, автор по имени Сара Силверман (Sarah Silverman) и несколько ее коллег по цеху подали иск к OpenAI и Meta Platforms, утверждая, что вендоры использовали их книги для обучения своих чат-ботов - естественно, без разрешения. В качестве аргумента истцы приводят тот факт, что чат-боты ответчиков способны выдать краткий пересказ содержания их книг. Это прямо указывает на присутствие их текстов в общем массиве данных, использовавшемся для обучения.

Трое художников подали иски к Stability AI, Midjourney и DeviantArt - также за использование их произведений без разрешения.

Отдельный иск против Stability AI подал агрегатор графических изображений Getty Images, указывая, что в обучающем массиве присутствовали 12 млн защищенных копирайтом изображений, скопированных c сайта сервиса.

Иск против производителей генеративных ИИ со стороны музыкальной индустрии, между тем, подается впервые. И пока только к Anthropic - видимо, потому, что в других популярных чат-ботах стоит блок на прямой вывод защищенных копирайтом произведений: Google Bard заявляет, что вывести текст вышеупомянутой песни Police находится за пределами его возможностей, а ChatGPT 3.5 - что не имеет возможности выводить материалы, защищённые копирайтом.

«Все это выглядит как попытка догнать уходящий поезд и вручить ему повестку в суд», - говорит Алексей Водясов, технический директор компании SEQ. По его мнению, какими бы запоздалыми ни были попытки заставить разработчиков ИИ-чатботов работать по правилам традиционного авторского права, таких исков будет становиться все больше и больше.

«Если их наберётся критическая масса, и хотя бы по одному будет принято положительное решение, то, в силу прецедентного права в США, ИИ-вендоры понесут весьма значительный ущерб - и финансовый, и репутационный», - подытожил Алексей Водясов.

Universal Music Group требует от ответчиков $75 млн в качестве возмещения. К иску Univesal присоединились также независимые лейблы Concord Music Group и ABKCO Music & Records, Collective Music Group, Worship Together Music и многие другие.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 
АНБ США создало центр по безопасности искусственного интеллекта и по защите от ИИ

Агентство национальной безопасности США создает специализированный центр, который будет заниматься защитой искусственного интеллекта. И защитой от него.

Искусственно-интеллектуальная безопасность
Агентство Национальной безопасности США объявило о создании специализированного хаба, в котором планируется консолидировать все направления деятельности агентства, связанные с искусственным интеллектом.

Получивший название The Artificial Intelligence Security Center (в зависимости от контекста это можно перевести как «Центр безопасности искусственного интеллекта» или как «Центр обеспечения безопасности с помощью ИИ») станет «фокусной точкой» для таких направлений, как выявление инсайтов в разведывательной деятельности, разработка методических рекомендаций в отношении быстроразвивающихся технологий и создание «инструментов определения рисков в сфере безопасности ИИ».

24_10_23_anb_ssha_600.jpg

Фото: freepik / Фотобанк Фрипик
Об этом на днях заявил генерал Пол Накасоуни (Paul Nakasone), выступает в Национальном Пресс-Клубе в Вашингтоне.

Новое подразделение планируется разместить в Центре кооперации в сфере кибербезопасности АНБ. Одной из заявленных целей будет помочь бизнесу «осознать угрозы их интеллектуальной собственности и... предотвратить и нейтрализовать их».

По словам Накасоуни, ИИ-подразделение АНБ будет сотрудничать со множеством организаций, связанных с Пентагоном, разведывательным управлением, академическими кругами и зарубежными партнерами.

Генерал Накасоуни также возглавляет Киберкомандование США. И АНБ, и Киберкомандование недавно опубликовали исследования об использовании ИИ в ближайшем будущем.

Кое-что ИИ не должен ни знать, ни уметь, ни раскрывать
Эти работы показали «отчетливую необходимоссть» сосредоточиться на безопасности ИИ, и, как отметил генерал Накасоуни, особая ответственность в этом плане лежит именно на АНБ. Ключевое назначение агентства - осуществлять координацию всех систем безопасности страны. Как выразился Накасоуни, у АНБ уже сформировалась разветвленная система связей в оборонно-промышленном комплексе.

Американский бизнес все больше тратит на закупки и разработки генеративных ИИ-технологий, но, по словам Накасоуни, тем же занимаются и стратегические противники США, которые «быстро разрабатывают и реализуют собственные ИИ-решения, так что мы ожидаем, что они вскоре начнут исследовать и пытаться эксплуатировать уязвимости в ИИ-системах США и союзников».

Безопасность ИИ, с точки зрения генерала, заключается в том, чтобы защищать системы искусственного интеллекта от того, чтобы они «узнавали, делали и раскрывали то, что не следует», а также блокировать кибератаки на них и добиваться, чтобы «враждебные стороны за пределами США не имели возможности похитить передовые американские наработки в сфере ИИ».

По словам Накасоуни, сегодня США удерживают лидирующие позиции, но рассматривать их как нечто само собой разумеющееся, категорически не стоит.

«Учитывая, что из себя представляют сегодняшние ИИ-модели, трудно вообразить себе, чтобы революционные технологии какой-либо одной экономики оставались недостижимыми для другой в течение значимого времени. Хороший пример - это те самые генеративные модели, которые с разницей в несколько месяцев появлялись у всех крупных ИТ-компаний», - отмечает Алексей Водясов, технический директор компании SEQ.

«Существует, конечно, чисто теоретическая вероятность, что кто-то (и не обязательно США) вдруг создадут нечто, что изменит все правила игры, но пока такая вероятность невелика и относится скорее к области недоброй фантастики», - подытожил он.

Кто будет руководить новым хабом и насколько масштабным он станет в итоге (то есть, насколько дорогим для налогоплательщиков), генерал не уточнил.

Источник /https://www.cnews.ru/news/top/2023-10-24_agentstvo_natsionalnoj_bezopasnosti
 
Запущен открытый проект Open Empathic по созданию ИИ с распознаванием человеческих эмоций

Некоммерческая организация LAION сообщила о запуске проекта Open Empathic — открытой платформы для разработки модели искусственного интеллекта с распознаванием человеческих эмоций. К созданию массива обучающих данных привлекли добровольцев.

artificial-intelligence_1.jpg

Источник изображений: Gerd Altmann / pixabay.com

Организация LAION (Large-scale Artificial Intelligence Open Network) приступила к работе в начале 2021 года. Её основал немецкий школьный учитель Кристоф Шуман (Christoph Schuhmann) при содействии единомышленников с сервера Discord для энтузиастов в области ИИ. LAION существует за счёт пожертвований, государственных исследовательских грантов, а также отраслевых партнёрских проектов, таких как стартап Hugging Face и компания Stable Diffusion. Последней она создавала массив данных для обучения генеративного ИИ — с изображениями и их текстовыми описаниями.

Целью проекта Open Empathic является создание ИИ, который понимает не только слова человека. «Мы стремимся, чтобы он улавливал нюансы выражений и изменения интонации, что сделает взаимодействие человека с ИИ более аутентичным и эмпатичным», — пояснил господин Шуман.

artificial-intelligence_2.jpg


На начальном этапе проекта в LAION запустили сайт, на котором добровольцам предлагается составлять описания к видеозаписям на YouTube. На этих роликах обычно демонстрируется речь одного человека — часть видео подобрана командой LAION, а некоторые предлагают добровольцы. По каждому клипу заполняется список полей: расшифровка текста; описание изображения и звука; возраст, пол и языковой акцент героя видео; уровень эмоционального возбуждения; психологический вектор («удовольствие» или «недовольство»). Есть и технические поля, в которых предлагается указать качество звука и наличие либо отсутствие посторонних шумов. Но основное внимание уделяется эмоциональной стороне.

Добровольцы выбирают подходящие к видео эмоции из готового перечня в выпадающем списке. Авторы проекта Open Empathic говорят, что этот механизм поможет создать обширную базу эмоциональных аннотаций с учётом различных языков и культур. После отправки отчёта доброволец может повторить процесс — количество клипов для участника проекта не ограничивается. В ближайшие время LAION предполагает собрать базу из 10 тыс. записей, чтобы к следующему году её объём составил при оптимистическом сценарии от 100 тыс. до 1 млн.

Некоторые правозащитные организации ранее призывали к полному запрету на разработку и применение систем распознавания эмоций — соответствующая норма есть и в европейском «Законе об ИИ», и она не допускает внедрение таких технологий правоохранительными органами, пограничниками, на рабочих местах и в школах. От подобных проектов перед лицом недовольства общественности ранее отказались некоторые компании, включая Microsoft. Но в LAION уверены, что открытый характер проекта даёт им моральное право продолжать работу над Open Empathic — в качестве примера приводится поддерживаемая силами сообщества «Википедия».

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
ChatGPT Plus получил поддержку файлов разных форматов и научился сам выбирать режимы работы

OpenAI внедрила новые бета-функции для подписчиков сервиса ChatGPT Plus. Среди ключевых нововведений — возможность загрузки и анализа файлов различных форматов, а также мультимодальная поддержка. Теперь система самостоятельно определяет, какой режим работы чат-бота является наиболее подходящим для пользователя, исходя из контекста диалога. Эти инновации делают индивидуальную подписку ChatGPT Plus функционально схожей с корпоративным планом ChatGPT Enterprise.

openai-priblizila-chatgpt-plus-k-korporativnomu-urovnyu-novie-funktsii-analiza-dannih-i-multimodalnost-main.jpg

Источник изображения: ilgmyzin / unsplash.com

Как было отмечено выше, обновление включает в себя возможность загрузки и обработки файлов. После передачи файла в ChatGPT чат-боту требуется несколько мгновений, чтобы обработать его, а затем он может выполнять такие действия, как обобщение данных, ответы на вопросы или создание визуализации данных на основе подсказок.

Это касается не только текстовых документов, но и графических изображений. В сети Threads опубликован пример, в котором пользователь загрузил фотографию капибары и попросил ChatGPT создать на её основе изображение в стиле Pixar с использованием технологии DALL-E 3.

openai-priblizila-chatgpt-plus-k-korporativnomu-urovnyu-novie-funktsii-analiza-dannih-i-multimodalnost-3.jpg

Источник изображения: luokai / Threads

Другой важной особенностью является мультимодальная поддержка. Теперь пользователям не нужно вручную выбирать режимы работы из выпадающего списка GPT-4. Чат-бот, опираясь на контекст общения с пользователем, самостоятельно угадывает потребности пользователя. Это значительно упрощает работу с ИИ и делает использование сервиса более интуитивным.

openai-priblizila-chatgpt-plus-k-korporativnomu-urovnyu-novie-funktsii-analiza-dannih-i-multimodalnost-1.jpg

Источник изображения: luokai / Threads

Перечисленные функции, как отмечается, приближают стандартную индивидуальную подписку ChatGPT Plus к функциональности корпоративного плана ChatGPT Enterprise. В последнем, например, уже доступны функции для расширенного анализа данных и работы с большими объёмами информации.

Нововведения ChatGPT Plus являются значимым шагом в улучшении пользовательского опыта и расширении функциональных возможностей сервиса. Перечисленные изменения не только делают использование чат-бота более удобным и эффективным, но и открывают новые горизонты для применения ИИ в повседневной жизни и бизнес-процессах. С учётом быстрого темпа развития технологий можно ожидать, что в ближайшем будущем нас ждут ещё более радикальные и интересные изменения в этой сфере.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
В Великобритании объявлено о создании института проблем безопасности искусственного интеллекта

flag-velikobritanii-na-mikrosheme.png


Премьер-министр Великобритании Риши Сунак (Rishi Sunak) объявил о создании института, имеющего целью изучение проблем безопасности искусственного интеллекта (ИИ) – UK AI Safety Institute, сообщила в четверг газета The Guardian.

Сунак утверждает, это первое в мире подобное учреждение. Его специалисты займутся тестированием «новых типов ИИ» на предмет целого ряда рисков — от создания фейков до экзистенциальных угроз.

«Институт тщательно изучит, оценит и протестирует новые виды ИИ с тем, чтобы мы понимали, на что способна каждая из новых моделей», – пояснил Сунак.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 
Президент США подписал первый указ по регулированию ИИ — он защитит людей и поможет в развитии инноваций

Как и ожидалось, президент США Джозеф Байден (Joseph Biden) подписал первый в своём роде указ
Для просмотра ссылки Войди или Зарегистрируйся
, направленный на регулирования направления технологий искусственного интеллекта. Это первое в своём роде действие со стороны американского правительства, направленное на переоценку вопросов обеспечения безопасности, рекомендаций по охране труда и гражданских прав в этой сфере.

72de234d22cf501f3cbe0019849f8a0c.gif

Источник изображения: интернет

Указ, помимо прочего, обязует разработчиков ИИ-алгоритмов предоставлять правительству данные, полученные в ходе тестирования своих продуктов до их вывода на потребительский рынок. Новый указ американского президента разделён на восемь основных частей:

Создание новых стандартов безопасности для ИИ. Разработка новых стандартов безопасности, в том числе, включает в себя требование для некоторых отраслевых компаний предоставлять результаты тестирования создаваемых алгоритмов федеральным властям. В дополнение к этому Министерство торговли должно создать программу по кибербезопасности, в рамках которой будут создаваться ИИ-инструменты для выявления уязвимостей в критически важном программном обеспечении.
Защита конфиденциальности потребителей, в том числе путём создания руководящих принципов, которые профильные ведомства смогут использовать для оценки методов обеспечения конфиденциальности в сфере ИИ.
Обеспечение равенства и соблюдение гражданских прав путём разработки рекомендаций для федеральных подрядчиков, чтобы ИИ-алгоритмы не способствовали дискриминации. Также планируется создание практик по расширению роли ИИ в системе правосудия, включая использование алгоритмов для вынесения приговоров, оценки рисков и прогнозирования уровня преступности.
Для полноценной защиты потребителей Министерству здравоохранения и социальным службам поручено создание программы для оценки потенциально опасных методов в сфере здравоохранения с использованием ИИ, а также ведение просветительской деятельности по ответственному использованию ИИ-инструментов.
Поддержка граждан путём подготовки отчёта о потенциальных последствиях воздействия ИИ на рынок труда и изучение способов, которые могут использоваться федеральными властями для поддержки людей, пострадавших от повсеместного внедрения ИИ-систем.
Содействие инновациям и конкуренции путём увеличения количества грантов на ИИ-разработки, а также модернизация критериев для оценки высококвалифицированных сотрудников из других стран, которые могли бы продолжить работу в США.
Работа с международными партнёрами над внедрением стандартов искусственного интеллекта по всему миру.
Разработка руководства по использованию и закупкам технологий на основе ИИ для федеральных агентств и ускорение процесса найма правительством квалифицированных сотрудников в этой сфере.
«Указ представляет собой самый расширенный набор действий, которые когда-либо предпринимало любое правительство в мире в отношении безопасности, защищённости и доверия к ИИ», — заявил заместитель главы администрации Белого дома Брюс Рид (Bruce Reed).

Новый указ президента США основан на обязательствах, которые ранее взяли на себя крупнейшие американские компании, ведущие разработки в сфере ИИ. Представитель администрации президента подтвердил, что 15 крупных IT-компаний из США согласились выполнять определённые обязательства для обеспечения безопасности ИИ, но «этого недостаточно», и принятый в понедельник указ является шагом на пути к конкретному регулированию развития технологий. «Несколько месяцев назад президент поручил своей команде нажать на все рычаги, и именно это делает новый указ: применение полномочий федерального правительства в широком спектре областей для управления связанными с ИИ рисками и использование его преимуществ», — приводит источник слова чиновника.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
«Большая семёрка» договорилась о руководящих принципах и кодексе поведения для ИИ

Лидеры G7 сегодня подписали «Соглашение о международных руководящих принципах ИИ» и «Добровольный кодекс поведения разработчиков ИИ» в рамках «Хиросимского процесса ИИ» — форума, посвящённого перспективам и проблемам развития искусственного интеллекта. Эти документы дополнят на международном уровне юридически обязательные правила, которые в настоящее время дорабатываются законодателями ЕС в соответствии с «Законом об ИИ».

ai-pixabay-2.jpg

Источник изображения: Pixabay

Одиннадцать руководящих принципов, принятых лидерами «Большой семёрки», служат руководством по обеспечению безопасности и надёжности технологий для организаций, разрабатывающих, внедряющих и использующих передовые системы ИИ. Они включают в себя обязательства по снижению рисков и злоупотреблений, выявлению уязвимостей, поощрению ответственного обмена информацией, отчётности об инцидентах и инвестициям в кибербезопасность, а также систему маркировки, позволяющую пользователям идентифицировать контент, созданный ИИ.

Эти принципы, основанные на результатах опроса заинтересованных сторон, были разработаны ЕС совместно с другими членами «Большой семёрки» в рамках инициативы, известной как «Хиросимский процесс ИИ». Они послужили основой для составления кодекса, который предоставит подробное и практическое руководство для организаций, разрабатывающих ИИ и будет способствовать ответственному управлению ИИ во всём мире.

Оба документа будут пересматриваться и обновляться по мере необходимости, в том числе посредством консультаций с участием многих заинтересованных сторон, чтобы гарантировать, что они остаются пригодными для использования и отвечают требованиям этой быстро развивающейся технологии. Лидеры G7 призвали организации, разрабатывающие передовые системы ИИ, взять на себя обязательство использовать в своей деятельности провозглашённые в принятых документах принципы.

«Хиросимский процесс ИИ» был учреждён на саммите G7 19 мая 2023 года с целью содействия развитию передовых систем ИИ на глобальном уровне. Эта инициатива является частью более широкого спектра международных дискуссий по вопросам сдерживания развития ИИ.

g7-may-2023.jpg

Источник изображения: Japan Pool / Bloomberg

«Потенциальные преимущества ИИ для граждан и экономики огромны. Однако ускорение развития возможностей ИИ также порождает новые проблемы. Уже будучи лидером в сфере регулирования благодаря "Закону об ИИ", ЕС вносит свой вклад в создание барьеров и управление ИИ на глобальном уровне. Я рада приветствовать международные руководящие принципы и добровольный кодекс поведения, отражающие ценности ЕС. Я призываю разработчиков ИИ подписать и внедрить этот Кодекс поведения как можно скорее», — прокомментировала принятые решения президент Еврокомиссии Урсула фон дер Ляйен.

Ниже приведён текст официального заявления лидеров G7 на «Хиросимском процессе ИИ» от 30 октября 2023 года:

«Мы, лидеры "Большой семёрки" (G7), подчёркиваем инновационные возможности и преобразующий потенциал передовых систем искусственного интеллекта (ИИ), в частности, базовых моделей и генеративного ИИ. Мы также признаем необходимость управления рисками и защиты отдельных лиц, общества и наших общих принципов, включая верховенство закона и демократические ценности, сохраняя человечество в центре внимания. Мы подтверждаем, что решение этих проблем требует формирования инклюзивного управления искусственным интеллектом.

Опираясь на прогресс, достигнутый соответствующими министрами в рамках Хиросимского процесса искусственного интеллекта, включая Заявление министров цифровых технологий и технологий "Большой семёрки", опубликованное 7 сентября 2023 года, мы приветствуем Международные руководящие принципы Хиросимского процесса для организаций, разрабатывающих передовые системы искусственного интеллекта, и Международный кодекс Хиросимского процесса. поведения организаций, разрабатывающих передовые системы искусственного интеллекта. Чтобы гарантировать, что оба документа сохранят свою пригодность и соответствие этой быстро развивающейся технологии, они будут пересматриваться и обновляться по мере необходимости, в том числе посредством постоянных инклюзивных консультаций с участием многих заинтересованных сторон. Мы призываем организации, разрабатывающие передовые системы искусственного интеллекта, соблюдать Международный кодекс поведения.

Мы поручаем соответствующим министрам ускорить процесс разработки Комплексной политики Хиросимского процесса ИИ, которая включает сотрудничество на основе проектов, к концу этого года в сотрудничестве с Глобальным партнёрством по искусственному интеллекту (GPAI) и Организацией экономического сотрудничества. операции и развития (ОЭСР), а также проводить информационно-разъяснительную работу и консультации с участием многих заинтересованных сторон, в том числе с правительствами, научными кругами, гражданским обществом и частным сектором, не только входящим в "Большую семёрку", но и в странах за её пределами, включая развивающиеся и развивающиеся экономики. Мы также просим соответствующих министров разработать к концу года план работы по дальнейшему развитию Хиросимского процесса искусственного интеллекта.

Мы считаем, что наши совместные усилия в рамках Хиросимского процесса искусственного интеллекта будут способствовать созданию открытой и благоприятной среды, в которой безопасные, надёжные и заслуживающие доверия системы ИИ проектируются, разрабатываются, внедряются и используются для максимизации преимуществ технологии при одновременном снижении её рисков, для общего блага во всем мире, в том числе в развивающихся странах и странах с формирующейся рыночной экономикой, с целью преодоления цифрового неравенства и достижения охвата цифровыми технологиями. Мы также с нетерпением ждём британского саммита по безопасности искусственного интеллекта, который пройдёт 1 и 2 ноября».

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
Словарь английского языка Collins назвал ИИ словом года

1626959041_151-1.webp


Он определяет ИИ как "моделирование ментальных функций человека с помощью компьютерных программ"

Словарь английского языка Collins, издаваемый в Великобритании, назвал ИИ (искусственный интеллект) словом года.

"Революционная языковая модель на основе ИИ ворвалась в общественное сознание в конце 2022 года, поразив нас своей способностью имитировать естественную человеческую речь. В действительности он может делать гораздо больше. Нужен текст для презентации на завтрашнее утро? Нет проблем. Рецепт для ужина из того, что у вас осталось в холодильнике? Готово. И хотя люди были по понятным причинам очарованы им, они также начали немного беспокоиться. Если компьютеры внезапно стали экспертами в вопросе языка, то что дальше? За этим последовали дебаты, исследования и прогнозы. Этого более чем достаточно для того, чтобы по версии Collins в 2023 году ИИ стал словом года", - сказано в сообщении на сайте словаря.

Collins определяет ИИ как "моделирование ментальных функций человека с помощью компьютерных программ". В 2022 году Collins назвал словом года пермакризис.

В среду в Великобритании открывается первый международный саммит по безопасному использованию ИИ. Среди участников - вице-президент США Камала Харрис, глава Еврокомиссии Урсула фон дер Ляйен, генеральный секретарь ООН Антониу Гутерриш, бизнесмен Илон Маск. Задача саммита - обсуждение угроз, связанных с ИИ.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 
Американские санкции ослабили китайские ИИ-стартапы, а IT-гиганты удара почти не ощутили

Китайские технологические гиганты начали запасаться ИИ-ускорителями задолго до того, как Вашингтон запретил NVIDIA и другим производителям поставлять свои самые производительные решения в страну — крупные компании ожидали эскалации технологической войны между США и Китаем. А вот начинающие компании не могли себе позволить сформировать подобные запасы, и в результате пострадали от санкций куда сильнее.

baidu.jpg

Источник изображения: baidu.com

Baidu, один из технологических гигантов, разрабатывающий китайские аналоги проектов OpenAI, приобрёл достаточное количество чипов для систем искусственного интеллекта, чтобы продолжать обучение Ernie Bot, выступающего эквивалентом ChatGPT, в течение «ближайшего года или двух», сообщил недавно гендиректор компании Робин Ли (Robin Li). «Кроме того, для вывода требуются менее мощные чипы, и мы надеемся, что наших запасов чипов, как и прочих альтернатив, хватит для поддержки множества приложений, работающих с искусственным интеллектом в интересах конечных пользователей», — заявил он.

Другие крупные игроки также успели принять меры: Baidu, ByteDance, Tencent и Alibaba вместе заказали около 100 тыс. процессоров NVIDIA A800, отгрузка которых была намечена на этот год, — это обошлось им в $4 млрд, ещё в августе выяснила Financial Times. На 2024 год планировалась поставка ИИ-ускорителей ещё на $1 млрд. Иными словами, на выход в ИИ-отрасль установлен достаточно высокий входной барьер, и американские санкции нанесли ущерб преимущественно стартапам — исключения составили те из них, что успели оперативно получить значительные инвестиции. Примером такого стартапа оказалась основанная известным инвестором Кай-Фу Ли (Kai-Fu Lee) в марте компания 01.AI, которая успела закупиться мощными ИИ-ускорителями в кредит и уже погасила свой долг, проведя раунд финансирования при оценке в $1 млрд.

Baidu, которая запаслась оборудованием, недавно выпустила нейросеть Ernie 4.0, которая, по словам разработчика, «ни в чём не уступает GPT-4». Единой методики сравнения возможностей больших языковых моделей до сих пор нет из-за их высокой сложности; стартапы часто демонстрируют высокие показатели своих платформ по заданным критериям, но адекватно оценить их качество можно будет лишь при практической работе с ними.

Мелким игрокам, у которых нет столько финансовых ресурсов, придётся довольствоваться менее производительным оборудованием, которое находится вне экспортного контроля США, или ожидать поглощения более крупными игроками. Последний сценарий не исключил и глава Baidu: по его мнению дефицит ускорителей, высокий спрос на источники данных и таланты в области ИИ, а также необходимость в огромных начальных инвестициях скоро могут перевести отрасль на «стадию консолидации».

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
Назад
Сверху