Искусственный интеллект от А до Я
ДомДом > Блог > Искусственный интеллект от А до Я

Искусственный интеллект от А до Я

Jan 17, 2024

Поскольку искусственный интеллект становится все большей частью нашего мира, в море жаргона легко заблудиться. Но никогда еще не было так важно сориентироваться, как сегодня.

В ближайшие годы искусственный интеллект окажет серьезное влияние на рынок труда (см.: Автоматизация). Дискуссии о том, как этим управлять, играют большую роль в нашем политическом разговоре (см.: Регулирование). И некоторые из наиболее важных концепций — это вещи, которым вас не будут учить в школе (см. «Давление конкуренции»).

Попытка набрать скорость может оказаться трудной. Исследования ИИ сложны, и многие языки являются новыми даже для самих исследователей. Но нет никаких причин, по которым общественность не может справиться с серьезными проблемами, которые стоят на кону, как мы научились делать с изменением климата и Интернетом. Чтобы помочь всем более активно участвовать в дебатах по ИИ, TIME составил удобный глоссарий наиболее распространенной терминологии.

Независимо от того, являетесь ли вы новичком или уже знаете свой AGI по GPT, эта книга от А до Я предназначена для того, чтобы стать общедоступным ресурсом для всех, кто сталкивается с мощью, перспективами и опасностями искусственного интеллекта.

AGI означает «Общий искусственный интеллект» — гипотетическую технологию будущего, которая сможет выполнять большинство экономически продуктивных задач более эффективно, чем человек. По мнению ее сторонников, такая технология также может привести к новым научным открытиям. Исследователи склонны расходиться во мнениях относительно того, возможен ли вообще AGI, а если да, то насколько далеко до него еще осталось. Но OpenAI и DeepMind — две ведущие в мире исследовательские организации в области ИИ — обе открыто привержены созданию AGI. Некоторые критики говорят, что AGI — это не более чем маркетинговый термин. (См.: Хайп.)

«Проблема выравнивания» — одна из самых серьезных долгосрочных проблем безопасности в сфере ИИ. Сегодняшний ИИ не способен одолеть своих создателей. Но однажды, как ожидают многие исследователи, это может произойти. В этом мире нынешние способы обучения ИИ могут привести к тому, что они нанесут вред человечеству, либо преследуя произвольные цели, либо в рамках явной стратегии поиска власти за наш счет. Чтобы снизить риск, некоторые исследователи работают над «приведением» ИИ в соответствие с человеческими ценностями. Но эта проблема сложна, нерешена и даже до конца не изучена. Многие критики говорят, что работа по ее решению отходит на второй план, поскольку бизнес-стимулы побуждают ведущие лаборатории искусственного интеллекта направлять усилия и вычислительные мощности на повышение эффективности своих искусственных интеллектов. (См.: Конкурентное давление.)

Автоматизация – это исторический процесс замены или помощи машинами человеческого труда. Новые технологии – или, скорее, люди, ответственные за их внедрение – уже заменили многих рабочих-людей машинами, которые не требуют заработной платы, от рабочих на сборочных линиях автомобилей до продавцов продуктовых магазинов. Согласно недавнему исследованию OpenAI и исследованию Goldman Sachs, прорывы в области искусственного интеллекта последнего поколения могут привести к тому, что гораздо больше служащих потеряют работу. По прогнозам исследователей OpenAI, почти пятая часть работников в США могла бы автоматизировать более половины своих ежедневных рабочих задач с помощью большой языковой модели. По прогнозам исследователей Goldman Sachs, в следующем десятилетии во всем мире может быть автоматизировано 300 миллионов рабочих мест. Приведет ли повышение производительности в результате этого переворота к широкому экономическому росту или просто к дальнейшему росту имущественного неравенства, будет зависеть от того, как ИИ будет облагаться налогом и регулироваться. (См.: Регулирование.)

Системы машинного обучения называются «предвзятыми», когда решения, которые они принимают, постоянно предвзяты или дискриминируют. Было обнаружено, что программное обеспечение для вынесения приговоров, дополненное искусственным интеллектом, рекомендует более суровые сроки тюремного заключения для чернокожих правонарушителей по сравнению с белыми, даже за равные преступления. А некоторые программы распознавания лиц лучше работают с белыми лицами, чем с черными. Эти сбои часто происходят потому, что данные, на которых обучались эти системы, отражают социальное неравенство. (См.: Данные.) Современные ИИ, по сути, являются репликаторами шаблонов: они поглощают большие объемы данных через нейронную сеть, которая учится обнаруживать закономерности в этих данных. (См.: Нейронная сеть). Если в наборе данных распознавания лиц больше белых лиц, чем черных, или если данные прошлых приговоров указывают на то, что чернокожие преступники приговорены к более длительным срокам тюремного заключения, чем белые, тогда системы машинного обучения могут извлечь неправильные уроки и начать автоматизировать эту несправедливость.