02-10-2023

Современный искусственный интеллект (ИИ) уже умеет решать задачи, которые не может решить человек. Это, несомненно, повышает риск использования таких систем не только на пользу человеку. В этой связи, в марте 2023 года создатели чата GPT обеспокоились тем, что продолжение обучения алгоритма может стать угрозой для человечества, и выпустили открытое письмо, в котором призывают приостановить обучение систем ИИ, выходящих за рамки GPT-4. Авторы письма считают, что сегодня возникла острая необходимость в формировании элементов контроля работы ИИ. Для этого, в свою очередь, нужны время и адекватный уровень недоверия. Но можно ли действительно остановить обучение ИИ? Вряд ли.

Реклама

В шестом подкасте проекта «Медицина в точке бифуркации» Гомболевский Виктор Александрович, к.м.н., врач-рентгенолог, научный сотрудник Института искусственного интеллекта AIRI, сотрудник компании IRA Labs, глава комитета по искусственному интеллекту в лучевой диагностике московского регионального отделения Российского общества рентгенологов и радиологов, расскажет, насколько обоснованы такие опасения, может ли нейросеть обладать сознанием, и есть ли смысл пытаться (и возможно ли вообще) остановить обучение алгоритмов ИИ, а также ответит на вопросы:

Страшные истории про искусственный интеллект! - Может ли искусственный интеллект представлять угрозу для человечества?
- Контроль искусственного интеллекта – чья зона ответственности?
- Может ли искусственный интеллект обладать сознанием?
- Как оценивают способности искусственного интеллекта ученые?
- Что нас ждет?

Смотрите, читайте и слушайте полную версию подкаста в удобном для вас формате:

Слушать в Я.Музыке
Слушать в ВК
Смотреть на Youtube
Смотреть на RuTube

Материал подготовлен в рамках проекта «Медицина в точке бифуркации». Проект поддержан грантом Минобрнауки России в рамках федерального проекта «Популяризация науки и технологий»

Реклама