ИИ рискует повторить ошибки эпохи социальных сетей: президент Microsoft

Новости сегодня - ИИ рискует повторить ошибки эпохи социальных сетей: президент Microsoft

Головокружительное развитие искусственного интеллекта рискует повторить ошибки, допущенные технологической индустрией в начале эры социальных сетей, заявил президент Microsoft Брэд Смит на бизнес-форуме в пятницу.

Быстрый прогресс в области искусственного интеллекта вызвал глобальную тревогу по поводу потенциальной возможности этой технологии для дезинформации, неправильного использования и потрясений на рынке труда.

Но Смит предположил, что эти опасения не были отражены разработчиками потенциально революционной технологии, чей оптимизм напомнил ему о первых годах существования платформ социальных сетей.

Тогда технологическая индустрия «впала в слишком большую эйфорию по поводу всего хорошего, что социальные сети принесут миру — а их было много, — не думая при этом и о рисках», — сказал он.

«Нам нужно иметь ясный взгляд, нам нужно с энтузиазмом относиться к возможностям, но вдумчиво, возможно, даже беспокоится о обратных сторонах. И нам нужно с самого начала построить ограждения», — добавил он.

Развитие искусственного интеллекта вызвало как волнение, так и обеспокоенность по поводу его потенциала улучшить или заменить задачи, выполняемые людьми.

В последние месяцы инструменты искусственного интеллекта продемонстрировали свою способность писать эссе, создавать реалистичные изображения, имитировать голоса известных певцов и даже проходить медицинские осмотры, а также множество других применений.

Но есть также опасения, что чат-боты могут наводнить Интернет дезинформацией, что предвзятые алгоритмы будут генерировать расистские материалы или что автоматизация на основе искусственного интеллекта может разрушить целые отрасли.

В докладе Организации Объединенных Наций, опубликованном на этой неделе, говорится, что ИИ скорее увеличит количество рабочих мест, чем уничтожит их, добавив, тем не менее, что технология изменит интенсивность труда и автономию работников.

В нем также говорится, что влияние технологий будет сильно различаться в зависимости от профессии и региона: конторские работники больше всего подвержены изменениям, а женщины с большей вероятностью, чем мужчины, увидят, что их работа пострадает.

Смит сказал, что очевидно, что общественность «хочет быть уверенной, что эта новая технология останется под контролем человека».

Исполнительный директор Mastercard Майкл Мибах заявил, что компаниям необходимо укрепить доверие к использованию этой технологии и принять меры для решения таких проблем, как предвзятость ИИ.

Но он также сказал, что, по его мнению, риски, связанные с ИИ, «не так уж новы» и не должны препятствовать дальнейшему развитию технологии.

«Естественно, регулирование останется позади», — сказал он. «Но это не должно нас замедлять».

Оба мужчины выступали в Нью-Дели вместе с другими мировыми лидерами отрасли на встрече, которая служит прелюдией к саммиту G20, который состоится в следующем месяце в индийской столице.

ИИ рискует повторить ошибки эпохи социальных сетей: президент Microsoft

Понравилась новость - поделитесь с Друзьями!

Новости партнеров:

Рубрика: IT, Новости

Вам могло бы понравиться:

Люди и ИИ: они лучше работают вместе или по отдельности? Люди и ИИ: они лучше работают вместе или по отдельности?
Первая в мире неэлектрическая сенсорная панель применяет сенсорные технологии в экстремальных условиях Первая в мире неэлектрическая сенсорная панель применяет сенсорные технологии в экстремальных условиях
Мягкие роботизированные шорты могут помочь пожилым людям и людям с ограниченной подвижностью при ходьбе Мягкие роботизированные шорты могут помочь пожилым людям и людям с ограниченной подвижностью при ходьбе
Задержки с вакциной от COVID-19 обошлись Австралии в 20 миллиардов долларов Задержки с вакциной от COVID-19 обошлись Австралии в 20 миллиардов долларов

Оставить комментарий

Вы должны Войти, чтобы оставить комментарий.

©2015 - 2024 Актуальные Новости Сегодня. Все права защищены.
При копировании материалов активная гиперссылка на этот сайт ОБЯЗАТЕЛЬНА!