Искусственный интеллект: мировые и российские достижения 2024, планы на 2025 год
2023 — 2024 годы стали переломными в развитии искусственного интеллекта, демонстрируя беспрецедентный рост технологических достижений и масштабов внедрения ИИ во все сферы жизни.
По данным годового отчета Стэнфордского университета по индексу искусственного интеллекта за 2024 год, ИИ впервые превзошел человеческие возможности в ряде ключевых областей, включая классификацию изображений, визуальное мышление и понимание английского языка.
В этой статье мы рассмотрим ключевые тенденции последних лет в области развития ИИ: анализ достижений в исследованиях и разработках, оценку технических характеристик новейших моделей, влияние на экономику и бизнес, прогресс в науке и медицине, а также вопросы регулирования и этики.
Особое внимание уделим российским достижениям в сфере ИИ, включая разработки ведущих технологических компаний и реализацию государственных инициатив в 2024 году, а также планам на 2025 год.
Основные статистические данные по мировому рынку ИИ
Несмотря на общее снижение частных инвестиций в ИИ, финансирование генеративного искусственного интеллекта показало беспрецедентный рост в 2023 году. Объем инвестиций в этот сегмент увеличился почти в 8 раз по сравнению с 2022 годом, достигнув $25,2 млрд.
В разработке передовых ИИ-моделей лидировали Соединенные Штаты Америки, где была создана 61 значимая модель, что существенно превысило показатели Европейского Союза (21 модель) и Китая (15 моделей).
Технологические прорывы: что изменилось?
Ключевым достижением в мире ИИ стало появление мощных мультимодальных моделей нового поколения. Такие системы, как GPT-4 от OpenAI и Gemini Ultra от Google, демонстрируют высокую гибкость в обработке текста, изображений и звука. Затраты на их обучение достигли рекордных уровней: $78 млн на GPT-4 и $191 млн на Gemini Ultra.
В робототехнике произошел ощутимый прорыв благодаря интеграции с языковыми моделями. Появление систем PaLM-E и RT-2 позволило создать более гибкие роботизированные системы. Важной особенностью стала их способность задавать вопросы, что существенно улучшило взаимодействие с реальным миром.
Роль ИИ в мировой экономике
По данным отчета AI Index Стэнфордского университета, использование ИИ существенно повышает производительность труда и качество работы. Технологии помогают сократить разрыв в квалификации между работниками разного уровня подготовки. 42% организаций отмечают снижение затрат благодаря ИИ-решениям, а 59% фиксируют рост доходов.
В корпоративном секторе наблюдается активное внедрение ИИ-технологий: 55% организаций применяют искусственный интеллект как минимум в одном бизнес-подразделении. Показательно, что упоминания ИИ в отчетах компаний Fortune 500 увеличились на 48% по сравнению с 2022 годом.
Тенденции и прогнозы по основным отраслям
В сфере исследований и разработок доминирование индустрии становится все более заметным. В 2023 году промышленные предприятия создали 51 значимую модель машинного обучения, тогда как академические институты — только 15. При этом сотрудничество между бизнесом и наукой достигло исторического максимума, результатом которого стало создание 21 совместной модели.
Наука и медицина демонстрируют существенный прогресс в применении ИИ. В 2023 году запущены прорывные приложения — от AlphaDev для оптимизации алгоритмической сортировки до GNoME для ускорения поиска новых материалов.
В медицине наблюдается устойчивый рост внедрения ИИ-технологий: количество одобренных FDA медицинских устройств на базе ИИ выросло в 45 раз с 2012 года. В 2022 году было одобрено 139 таких устройств, что на 12,1% больше, чем в 2021 году.
В сфере образования особое внимание уделяется интеграции ИИ-инструментов в образовательный процесс. Проводится анализ их влияния на обучение как в высшем образовании, так и в школах. Отмечается рост разнообразия в компьютерном образовании США и Канады, хотя в Европе сохраняется существенный разрыв на всех образовательных уровнях.
В области политики и управления наблюдается резкий рост регулирования ИИ. В США количество нормативных актов в сфере ИИ увеличилось с одного в 2016 году до 25 в 2023 году, причем только за последний год рост составил 56,3%. Соединенные Штаты и Европейский Союз продвигают знаковые инициативы в области регулирования ИИ, что отражает растущее внимание политиков к этой технологии.
Этика и регуляция ИИ на глобальном уровне
Исследования AI Index выявили существенную нехватку стандартизированных методов оценки ответственности языковых моделей. Ведущие разработчики, такие как OpenAI, Google и Anthropic, тестируют свои модели по различным критериям, что затрудняет систематическое сравнение рисков и ограничений ведущих ИИ-систем.
Растет внимание регулирующих органов к вопросам безопасности и прозрачности ИИ-систем. Особую озабоченность вызывает проблема политических и других дипфейков, которые легко создаются и сложно обнаруживаются, что критично в условиях развития кибермошенничества.
Искусственный интеллект в России — достижения и вызовы 2024 года
Актуальные данные по рынку ИИ в России
Несмотря на внешние ограничения, российский рынок искусственного интеллекта демонстрирует устойчивое развитие. Отечественные компании активно внедряют ИИ-технологии во все ключевые отрасли экономики. Заметен прогресс в финансовом секторе, где Сбер выступает одним из технологических лидеров, развивая собственную экосистему ИИ-решений.
В 2024 году российские разработчики добились значительных успехов в создании крупных языковых моделей. «Сбер» представил обновленный сервис GigaChat MAX, «Яндекс» выпустил четвертое поколение YandexGPT. Заметный прогресс в развитии нейронных моделей демонстрируют Т-Банк, МТС и компания VK.
Прорывные технологии и кейсы внедрения ИИ в России
Одним из ключевых достижений стало применение генеративного ИИ в государственном управлении. Впервые большая языковая модель GigaChat используется для обработки обращений граждан на «Прямую линию» с Президентом, что позволяет анализировать миллионы сообщений в кратчайшие сроки. Эта технология повышает эффективность работы госорганов в десятки раз.
В транспортной отрасли реализуется федеральный проект «Беспилотные логистические коридоры» с тестированием автономных тягачей на маршруте Москва-Санкт-Петербург. В промышленности внедряются системы 3D-моделирования с использованием ИИ для проектирования деталей оборудования. Особого прогресса добились в создании цифровых двойников сложных промышленных систем.
Влияние ИИ на экономику России и бизнес-процессы
Внедрение искусственного интеллекта в задачи государственного управления демонстрирует значительный экономический эффект. Показательным примером служит опыт Липецкой области, где использование ИИ в социальной сфере позволило в два раза сократить сроки предоставления услуг и в 4,5 раза повысить производительность труда сотрудников. Автоматизация процессов обработки заявлений снизила количество ошибок в десять раз.
В сфере государственных услуг Россия вышла в число мировых лидеров с охватом более 130 миллионов пользователей. По всей стране доступно около 200 видов электронных госуслуг, что существенно повышает эффективность взаимодействия государства и граждан.
ИИ в науке и образовании: перспективы и проекты
В мире науки искусственный интеллект значительно ускоряет исследовательский процесс, позволяя обрабатывать гигантские объемы данных и моделировать сложные эксперименты. Это сокращает путь от научной гипотезы до открытия в десятки и сотни раз. Существенного прогресса добились в генетике и разработке новых материалов.
В образовании использование ИИ помогает оптимизировать работу преподавателей, освобождая до 20% их времени от административной нагрузки. Реализуются масштабные образовательные инициативы для школьников, в том числе Всероссийская олимпиада по искусственному интеллекту. Технологические компании России, включая Сбер, Яндекс и VK, создают образовательные платформы для профессионального обучения школьников, студентов и IT-специалистов.
Регулирование и этические аспекты ИИ в России
Развитие искусственного интеллекта в России опирается на Национальную стратегию развития ИИ, где особое внимание уделяется этическим аспектам и задаче сохранения технологического суверенитета. В рамках этой стратегии реализуется принцип «доверенного ИИ» — системы должны быть прозрачными, открытыми и учитывать национальные особенности и традиции.
Значимым шагом стало создание Альянса в сфере искусственного интеллекта, объединившего более 800 российских компаний. Все участники Альянса следуют единому Кодексу этики при разработке ИИ-решений. В декабре 2024 года сформирован международный Альянс с участием 15 национальных ассоциаций, что открывает новые перспективы для международного сотрудничества.
Перспективы развития до 2030 года
К 2030 году планируется завершить внедрение интегральных цифровых платформ во всех основных отраслях: здравоохранении, промышленности, транспорте и государственном управлении. Особый акцент делается на развитии региональных сервисов с применением генеративного ИИ.
Президент России Владимир Путин подписал указ об обновлении национальной стратегии развития ИИ до 2030 года, который включает более 40 страниц изменений.
Одной из задач стратегии является увеличение доверия граждан к технологиям ИИ с 55% в 2022 году до не менее 80% к 2030 году. Также планируется увеличить количество выпускников вузов по специальностям, связанным с ИИ, с 3 тысяч до 15,5 тысяч человек ежегодно.
Россия нацелена на достижение лидерских позиций не только в разработке, но и в масштабе применения ИИ. Страна готова к расширению международного сотрудничества, в том числе со странами БРИКС, ШОС и другими партнерами, заинтересованными в совместном развитии ИИ-технологий.
Планы по развитию ИИ-технологий на 2025 год
Россия
В 2025 году в РФ запланировано значительное развитие искусственного интеллекта в рамках государственной стратегии и федеральных проектов, что отражает растущую важность этой технологии для экономики и общества.
На реализацию федерального проекта «Искусственный интеллект» в 2025 году выделено 7,7 миллиарда рублей. Эти средства будут направлены на поддержку отечественных технологий ИИ и создание условий для их использования как предприятиями, так и гражданами.
Важным аспектом на 2025 год станет акцент на разработку «сильного» ИИ. Вице-премьер Дмитрий Чернышенко сообщил о запуске отбора флагманских исследовательских центров, которые будут сосредоточены на создании технологий «сильного» ИИ.
Это включает в себя исследование новых архитектур и алгоритмов машинного обучения, а также взаимодействие человека и ИИ.
Технологии ИИ будут активно внедряться в различные сферы, включая:
- Государственное управление: Использование ИИ для повышения эффективности работы аппарата правительства.
- Персонализированная медицина: Применение ИИ для улучшения медицинских услуг.
- Исследования Арктики и космоса: Использование автономных роботов и других технологий для изучения этих сложных областей.
США
В Штатах в 2025 году будет выделено $3,3 миллиарда на развитие технологий ИИ. Это часть более широкой стратегии, направленной на создание безопасного и ответственного ИИ. В дополнение к этому, в оборонном бюджете предусмотрено создание центра передового опыта для разработки систем вооружения на основе искусственного интеллекта.
Администрация президента опубликовала обновленный план исследований и разработок в области ИИ, который включает долгосрочные инвестиции и сотрудничество с частным сектором для ускорения прогресса в этой области.
Европейский Союз
В 2025 году вступит в силу Закон ЕС о ИИ, который введет запрет на использование опасных ИИ-систем и установит правила для генеративного ИИ. Этот закон будет иметь значительное влияние как внутри ЕС, так и за его пределами, формируя глобальные стандарты регулирования.
Заключение
Последние два года стали переломными в развитии искусственного интеллекта во всем мире. Значительный прогресс наблюдается в создании мультимодальных моделей, способных эффективно работать с различными типами данных и решать сложные задачи в интересах человека.
В области технологического развития наблюдается существенный рост возможностей ИИ обрабатывать большие массивы данных и использовать их для решения практических задач. С помощью генеративных моделей можно создавать контент, который сложно отличить от созданного человека, а также использовать различные форматы — от текста до видео.
Российские компании успешно развивают собственные решения, конкурирующие с другими мировыми разработками. Такие сервисы как GigaChat MAX от Сбера и четвертое поколение YandexGPT демонстрируют высокий уровень развития отечественных технологий. Другие крупные игроки — Тинькофф Банк, МТС и VK — также добились заметного прогресса в развитии своих нейронных моделей.
В сфере практического применения ИИ позволяет использовать новые подходы в медицине, образовании и других отраслях. Технологии помогают повысить эффективность диагностики заболеваний, персонализировать обучение и автоматизировать рутинные задачи. Особую роль играет внедрение ИИ в государственное управление, где с его помощью можно анализировать обращения граждан и оптимизировать работу с данными.
Важным достижением стало создание полноценной экосистемы развития ИИ в России, включающей как технологических лидеров, так и региональные центры компетенций. Это позволяет эффективно использовать потенциал искусственного интеллекта для решения задач в интересах каждого человека и общества в целом.
В 2025 году ожидается дальнейшее активное развитие технологий искусственного интеллекта. Это подтверждается планами и стратегиями, разработанными правительствами и деловыми кругами разных стран. Планы на ближайший год включают как значительное финансирование, так и стратегические инициативы, направленные на создание эффективной инфраструктуры для внедрения и развития технологий ИИ.
*Материал подготовлен с использованием искусственного интеллекта.
Искусственный интеллект в 2024 году:
Автор Иоанна Ривз
Современное общество призывает использовать ИИ во всю мощь и тем самым обеспечить себя временем на активный досуг и отдых.
На фоне недавних достижений ИИ превратился из темы, предназначенной для технических сотрудников, в фокус внимания руководителей компаний: почти четверть опрошенных руководителей высшего звена говорят, что они лично используют инструменты ИИ поколения для работы, и более четверти респондентов Представители компаний, использующих ИИ, говорят, что вопросы искусственного интеллекта уже включены в повестку дня их советов директоров. Более того, 40 процентов респондентов говорят, что их организации в целом увеличат инвестиции в искусственный интеллект благодаря достижениям в области искусственного интеллекта. Результаты показывают, что управление рисками, связанными с ИИ, еще только начинается: менее половины респондентов заявили, что их организации снижают даже тот риск, который они считают наиболее важным: неточность.
В одном из своих интервью бизнесмен и инвестор Илон Маск говорит, что неясно, смогут ли люди контролировать ИИ, и он абсолютно прав. Выступая на дискуссии на британском саммите по ИИ, Илон Маск сказал, в отношении ИИ, что правительства должны сыграть свою ключевую роль в общественной безопасности , если она находится под угрозой.
Результаты опроса показывают, что высокоэффективные компании в области ИИ, то есть организации, в которых, по словам респондентов, не менее 20 процентов чистого дохода в 2022 году были связаны с использованием ИИ, полностью используют искусственный интеллект, как с генерированным искусственным интеллектом , так и с более традиционными возможностями ИИ. Эти организации, которые получают значительную выгоду от ИИ, уже используют ИИ в большем количестве бизнес-функций, чем другие организации, особенно при разработке продуктов и услуг, а также в управлении рисками и цепочками поставок.
Многие жители нашей планеты всё чаще задаются вопросом что есть ИИ- угроза человечеству или созданная и управляемая человеком система управления цифровыми материалами, направленными на пользу человечества.
Перед тем , как ответить на этот вопрос , давайте сделаем шаг в прошлое. Многие ученые и даже писатели в XX веке посвящали свои труды проблеме взаимодействия людей и ИИ в целом . Несомненно те же проблемы обсуждаются и описываются в XXI веке. Многие из этих проблем посвящены конкретным задачам в области, названной «робоэтикой».
– Что же такое робоэтика? — Говоря простым языком это три закона робототехники, сформулированные учёным, популяризатором науки и гениальным писателем Айзеком Азимовым. Стоит отметить, что впервые «Законы» были сформулированы в научно-фантастическом рассказе «Хоровод», который был опубликован в марте 1942 года. С тех пор прошло целых 74 года, но до сих пор «законы» актуальны, и учитываются современными специалистами по робототехнике, искусственному интеллекту и сопряжённым дисциплинам. Кроме того, использовали эти законы и другие писатели-фантасты, а следом за ними — и учёные. Тем не менее, в настоящее время законы по прежнему рассматриваются больше как теория, чем практика, ведь «ИИ» в чистом виде пока что нет, а те роботы, которые были в использовании человека ранее, подобные законы просто не в состоянии «понять», их система управления и обработки информации гораздо примитивнее того, что было описано Азимовым в его работах. Для того, чтобы законы можно было использовать, робот должен быть таким же совершенным, каким его видел Азимов. Интересно, что сам Азимов считал, что сформулировал законы в нынешнем их виде не он сам, а его друг и издатель Джон Кэмпбелл, главный редактор журнала «Astounding». Последний же, в свою очередь, утверждал, что он просто вычленил Законы из того, что Азимов уже написал.
Первый закон:Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред, если это не нарушает Нулевой закон.
Второй Закон: Робот должен повиноваться командам человека, пока эти команды не вступают в противоречие с Первым Законом.
Третий Закон: Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Нулевому, Первому и Второму Законам.
Позднее, в середине 80-х годов прошлого века, писатель добавил четвёртый, или, как его обычно называют, Нулевой закон, который предшествует остальным с точки зрения приоритета:
Нулевой Закон : Робот не может причинить вред человеческому сообществу или своим бездействием допустить, чтобы человеческому сообществу был причинен вред.
Многие эксперты в области ИИ утверждают, что 2020-2021 годы – подходящее время, чтобы превратить концепции писателя-фантаста в легализованный закон, до того, как появятся по-настоящему продвинутые ИИ. Попросту говоря, искусственный интеллект нужно содержать под давлением, чтобы он не мог перепрограммировать своё ядро. Этические рамки для развития и использования ИИ призваны определить, как люди должны развивать и использовать свои творения, а также то, как ИИ точно не должен быть использован.
Основные направления в развитии ИИ в 2020-2023 годах:
ИИ в компьютерной графике – создание более фотореалистичных эффектов, окрашивание черно-белых изображений в цветные, рисование реалистичных изображений с помощью графики, использование технологии распознавания лиц.
Яркий пример использования ИИ в компьютерной графике сегодня это NFTs ,существующие как симбиоз цифрового искусства и чисел в крипто- сообществе, которые визуально отображают замысел автора, переданный с помощью ИИ и подтверждают права автора на собственность с помощью технологии блокчейн.
ИИ и научные исследования – Исследователи Google DeepMind объявили, что с помощью искусственного интеллекта им удалось открыть 2,2 млн ранее неизвестных кристаллических материалов, из которых 380 тысяч признаны стабильными, что значит не разлагаются и не взрываются, что увеличивает диапазон ранее известных учёным материалов стабильных почти в десять раз. Многие из них могут быть полезны в разных технологических областях. Учёные с помощью роботизированной лаборатории смогли воспроизвести части этих материалов. Прежде на это ушли бы годы, а сейчас — полмесяца.
Программа ИИ Google Deep Mind борется за то, чтобы генерировать действительно новые идеи, выходящие за рамки того, что известно ранее. Новое активное обучение графовой нейронной сети (GNN) использует базу данных материалов для изучения закономерностей в стабильных структурах и выяснения того, как минимизировать энергию атомных связей в новых структурах. Используя весь диапазон периодической таблицы Менделеева, она выдает тысячи потенциально стабильных кандидатов в материалы. Следующий шаг — их проверка и корректировка с помощью метода квантовой механики, называемого теорией функционала плотности, или DFT. На следующем этапе эти уточнённые результаты снова подключаются к обучающим датасетам, и процесс повторяется.
Тейлор Спаркс (Taylor Sparks), материаловед из Университета Юты, не принимавший участия в исследовании, говорит, что видеть, как автоматика работает над синтезом новых типов материалов, многообещающе. Но использование искусственного интеллекта для предложения тысяч новых гипотетических материалов, а затем погоня за ними с помощью автоматики, просто нецелесообразна, добавляет он. GNN широко используются для разработки новых идей для материалов, но обычно исследователи хотят направить свои усилия на создание материалов с полезными свойствами, а не на слепое воспроизведение сотен тысяч таких материалов. «У нас уже есть слишком много вещей, которые мы хотели бы исследовать, но физически не смогли, — говорит он. — Я думаю, проблема в том, приближается ли этот масштабный синтез к количеству предсказанных материалов? Даже близко нет».
ИИ и медицина – в 2021 году искусственный интеллект используется для распознавания и отслеживания местоположения и движения различных людей. Некоторые программы могут даже помочь обнаружить конкретных людей, анализируя их походку и сердцебиение. На выставке CES 2020 были представлены около 150 экспонатов, которые включали в себя технологии для нормализации сна, технологии для наблюдения за здоровьем ребенка, мамы и др.
Робот -гуманоид – Топ роботы созданные ведущими компаниями в области ИИ : Atlas, GR-1, Сyber 1 и Optimus с различными техническими характеристиками и возможностями.
ИИ как защита от кибератак – многие организации с нетерпением ждут внедрения технологий ИИ и нуждаются в помощи выявления угроз , предотвращении утечки данных, а беспристрастный искусственный интеллект может компенсировать нехватку специалистов в области кибербезопасности.
Использование ИИ в кибербезопасности требует эффективности и безопасности, с учётом нескольких важных факторов:
Обеспечение защиты данных и алгоритмов ИИ от кибератак и взломов. Хакеры могут использовать вредоносные алгоритмы для внедрения в систему ИИ и изменения ее работы, чтобы обойти системы защиты. Поэтому необходимо усилить меры защиты систем, работающих на основе ИИ, и проводить регулярные проверки на наличие уязвимостей.
Во-вторых, необходимо обучать ИИ на различных типах кибератак и угроз, а также использовать актуальные данные. ИИ не сможет эффективно обнаруживать новые типы угроз, если он не обучен на них. Поэтому необходимо использовать актуальные данные о киберугрозах и проводить регулярное обучение ИИ, чтобы он мог обнаруживать новые типы угроз.
В-третьих, необходимо учитывать этические и правовые вопросы в отношении использования ИИ в кибербезопасности. Например, принятие решений на основе ИИ может привести к нарушению прав человека на приватность. Поэтому необходимо разработать этические и правовые стандарты, которые будут регулировать использование ИИ в кибербезопасности.
Наконец, необходимо учитывать, что использование ИИ в кибербезопасности не может полностью заменить человеческий фактор. ИИ может помочь автоматизировать процессы обнаружения и реагирования на угрозы, но для принятия окончательного решения о безопасности все же требуется участие человека. Поэтому необходимо использовать ИИ как инструмент, который помогает человеку, а не заменяет его.
ИИ в маркетинге – сегментация аудитории, анализ и обработка данных с помощью заданных алгоритмов.
ИИ поможет в оптимизации производства- некоторые автономные производственные линии, работающие под управлением ИИ, будут с нами в не слишком отдаленном будущем. Это обещает сократить расходы, повысить качество продукции и снизить потребление энергии для тех организаций, которые вкладывают средства в данную технологию.
ИИ и военные технологии – Многие эксперты неоднократно высказывали опасения, что использование ИИ в военной сфере может привести к нежелательным последствиям. Мы обращаем наше внимание на то , что в некоторых ситуациях ИИ может расценить неопасные факторы как представляющие угрозу, и это «тревожная перспектива».
The state of AI in 2023 : Author Ioanna Reeves
The latest annual McKinsey Global Survey on the current state of AI confirms the explosive growth of generative AI (gen AI) tools. Less than a year after many of these tools debuted, one-third of our survey respondents say their organizations are using gen AI regularly in at least one business function. Amid recent advances, AI has risen from a topic relegated to tech employees to a focus of company leaders: nearly one-quarter of surveyed C-suite executives say they are personally using gen AI tools for work, and more than one-quarter of respondents from companies using AI say gen AI is already on their boards’ agendas. What’s more, 40 percent of respondents say their organizations will increase their investment in AI overall because of advances in gen AI. The findings show that these are still early days for managing gen AI–related risks, with less than half of respondents saying their organizations are mitigating even the risk they consider most relevant: inaccuracy.
In one of his interview a businessman and investor , Elon Musk says that it is not clear if humans can control AI and he is absolutely correct.Speaking at the discussion at the UK summit on AI Musk Elon said there was a role for governments to play “when the public safety is at risk” in regards to AI.
The survey results show that AI high performers—that is, organizations where respondents say at least 20 percent of EBIT in 2022 was attributable to AI use—are going all in on artificial intelligence, both with gen AI and more traditional AI capabilities. These organizations that achieve significant value from AI are already using gen AI in more business functions than other organizations do, especially in product and service development and risk and supply chain management. When looking at all AI capabilities—including more traditional machine learning capabilities, robotic process automation, and chatbots—AI high performers also are much more likely than others to use AI in product and service development, for uses such as product-development-cycle optimization.
In one of his interview Elon Musk says that it is not clear if humans can control AI and he is absolutely correct.Speaking at the discussion at the UK summit on AI Musk Elon said there was a role for governments to play “when the public safety is at risk” in regards to AI.
Many inhabitahis of our planet has a question, what is Artificial Intelligence today? How and where we use it? Is it a threat to humanity or a human-created and controlled digital content management system aiming to benefit the humanity?
Before answering this question, let’s take a step into the past. Many scientists and even writers of the 20th century devoted their works to the problems of interaction between people and AI in general. Undoubtedly the same problems are discussed about the product in the 21st century. Many of these problems relate to problems in a field called “roboethics.”
– What is robot-ethics? – In simple terms, these are the three laws of robotics, formulated by the scientist, popularizer of science and genius writer Isaac Asimov. It is worth noting that the Laws were first formulated in the science fiction story Round Dance, which was published in March 1942.
A whole 74 years have passed since then, but the “laws” are still relevant, and are taken into account by modern specialists in robotics, artificial intelligence and related disciplines. In addition, these laws were used by other science fiction writers, followed by scientists. Nevertheless, at present, the laws are still considered more as theory than practice, because there is still no “AI” in its pure form, and those robots that were used by humans earlier are simply not able to “understand” such laws. Their control and information processing system is much more primitive than what was described by Azimov in his works. In order for the laws to be used, the robot must be as perfect as Asimov saw it. An interesting fact : Azimov himself believed that it was not himself who formulated the laws in their current form, but his friend and publisher John Campbell, editor-in-chief of Astounding magazine. The last one, in his turn, argued that he simply isolated the Laws from what Asimov had already written.
The first law: A robot cannot harm a person or, by its inaction, allow harm to be done to a person, if this does not violate the Zero Law.
Second Law: A robot must obey human commands as long as those commands do not conflict with the First Law.
Third Law: A robot must take care of its safety to the extent that it does not contradict the Zero, First and Second Laws.
Later, in the mid-80s of the last century, the writer added a fourth, or, as it is usually called, the Zero Law, which precedes the others in terms of priority:
Zero Law: A robot cannot harm the human community or, through inaction, allow harm to the human community.
Main directions of AI development in 2020-2023
AI in computer graphics – creating more photorealistic effects, coloring black and white images into color, drawing realistic images using graphics, using facial recognition technology. A striking example of the use of AI in computer graphics today are NFTs, which exist as a symbiosis of digital art and numbers in the crypto community, which visually display the author’s intention conveyed using AI and confirm the author’s property rights using blockchain technology.
AI and scientific research – Google DeepMind researchers announced that with the help of artificial intelligence they were able to discover 2.2 million previously unknown crystalline materials, of which 380 thousand were recognized as stable, which means they do not decompose or explode, which increases the range of stable materials previously known to scientists almost ten times. Many of them can be useful in different technological fields. Scientists using a robotic laboratory were able to reproduce parts of these materials. Previously, this would have taken years, but now it takes half a month.
Google’s Deep Mind AI program strives to generate truly new ideas that go beyond what is previously known. A new active learning graph neural network (GNN) uses a materials database to learn patterns in stable structures and figure out how to minimize atomic bond energy in new structures. Using the full range of the periodic table, it produces thousands of potentially stable material candidates. The next step is to test and correct them using a quantum mechanics technique called density functional theory, or DFT. At the next stage, these refined results are again connected to the training datasets, and the process is repeated.
Taylor Sparks, a materials scientist at the University of Utah who was not involved in the study, says it’s promising to see automation working to synthesize new types of materials. But using artificial intelligence to propose thousands of new hypotheticals and then chasing them with automation is simply not practical, he adds. GNNs are widely used to develop new ideas for materials, but researchers typically want to focus their efforts on creating materials with useful properties rather than blindly replicating hundreds of thousands of them. “We already have too many things we’d like to explore but haven’t physically been able to,” he says. — I think the problem is, is this large-scale synthesis approaching the amount of predicted materials? Not even close.”
AI and Medicine – In 2021, Artificial Intelligence is used to recognize and track the location and movement of various people. Some programs can even help detect specific people by analyzing their gait and heartbeat. At CES 2020, about 150 exhibits were presented, which included technologies for normalizing sleep, technologies for monitoring the health of a child, mother, etc.
Humanoid robot – Top robots created by leading companies in the field of AI: Atlas, GR-1, Cyber 1 and Optimus with various technical characteristics and capabilities.
AI as a defense against cyberattacks – Many organizations are looking forward to implementing AI technologies and need help identifying threats, preventing data leaks, and unbiased artificial intelligence can compensate for the shortage of cybersecurity specialists.
The use of AI in cybersecurity requires efficiency and security, taking into account several important factors:
Ensuring that data and AI algorithms are protected from cyber attacks and hacks. Hackers can use malicious algorithms to inject AI into a system and change how it works to bypass security systems. Therefore, it is necessary to strengthen security measures for AI-based systems and conduct regular checks for vulnerabilities.
Secondly, it is necessary to train AI on different types of cyber attacks and threats, as well as use up-to-date data. AI will not be able to effectively detect new types of threats unless it is trained on them. Therefore, it is necessary to use up-to-date cyber threat data and regularly train AI so that it can detect new types of threats.
Third, ethical and legal issues regarding the use of AI in cybersecurity need to be considered. For example, AI-based decision making may violate human rights to privacy. Therefore, it is necessary to develop ethical and legal standards that will govern the use of AI in cybersecurity.
Finally, it must be taken into account that the use of AI in cybersecurity cannot completely replace the human factor. AI can help automate threat detection and response processes, but human input is still required to make the final security decision. Therefore, it is necessary to use AI as a tool that helps humans and does not replace them.
AI in marketing – audience segmentation, analysis and data processing using specified algorithms.
AI will help in optimizing production – some autonomous production lines running under AI will be with us in the not too distant future.This promises to reduce costs, improve product quality and reduce energy consumption for those organizations that invest in the technology.
AI and military technology – Many experts have repeatedly expressed concern that the use of AI in the military sphere could lead to undesirable consequences. We draw our attention to the fact that in some situations, AI may regard non-hazardous factors as posing threats , and this is a “worrying perspective”.
Автор И.Ривз / Author I.Reeves