Эксперт по кибербезопасности облегчает опасения Илона Маска перед ИИ - или нет?

  • 04-03-2020
  • комментариев

Будьте уверены, Илон, нам не нужно бояться роботов-убийц ИИ, по крайней мере, на данный момент. Марк Брейк / Getty Images

На данном этапе некоторые эксперты считают, что искусственный интеллект (ИИ) - это панацея от всех бед общества. Между тем, все мы знаем, насколько генеральный директор Tesla Илон Маск опасается ИИ. Прислушайтесь к его словам. Перефразируя, Маск в значительной степени сказал, что искусственный интеллект может привести к гибели человечества в том виде, в каком мы его знаем. Тяжелая штука.

А это было бы очень плохо. Позвольте мне проиллюстрировать наихудший сценарий, основанный на точке зрения Маска, сценой из «Терминатора 2».

Как я только что сказал, довольно плохо. И такое разрушение могло произойти - все из-за ИИ. Итак, мое предложение? Выньте батарейки из своего смартфона и прямо сейчас разбейте его камнем; мы должны остановить ИИ… прежде чем он остановит нас.

СМОТРИ ТАКЖЕ: Илон Маск говорит, что внедрение микросхемы ИИ в мозг будет так же просто, как и Lasik

Но есть эксперты, которые считают иначе.

Джеймс Литтон, генеральный директор и соучредитель компании Identity Automation по управлению идентификацией и доступом, придерживается более оптимистичного взгляда. Фактически, он считает, что «будущее искусственного интеллекта светлое».

Хорошо, это уже намного оптимистичнее, чем Маск. Интуиция этого эксперта по кибербезопасности такова, что есть еще много возможностей, связанных с ИИ, и мы просто будем поражены тем, как мы сможем использовать эти возможности в будущем.

В частности, нас может удивить просто сколько прогресса ожидается в ближайшие пять лет.

«Возможно, ИИ станет опасным в будущем, но я чувствую, что до этого еще далеко, потому что мы находимся на очень ранних стадиях», - Литтон объяснил Observer. (Хорошо, не совсем обнадеживающе.)

«Сегодня ИИ только зарождается в том смысле, что алгоритмы ИИ используются только для точных функций», - сказал он. Литтон указал на положительные преимущества ИИ, например, его использование в здравоохранении для выявления аномальных результатов рентгеновских снимков. Это, в свою очередь, позволяет прогнозировать конкретные заболевания, например туберкулез. (Мы все согласны, что это хорошо, верно?)

Тем не менее, несмотря на количественную оценку положительных преимуществ, ИИ по-прежнему требует участия человека. «Хотя ИИ помогает рентгенологам определять приоритетность случаев, им все же необходимо окончательно интерпретировать результаты и подтвердить диагноз», - сказал Литтон. «Несмотря на то, что ИИ можно обучить выполнению конкретных задач, ему все еще требуется коучинг, чтобы убедиться, что данные интерпретируются правильно».

Итак, идея о том, что ИИ может быть очень широким и выполнять те же задачи, что и В настоящее время человеческое может не является реальностью.

«Мы не нашли способа преодолеть вносимые нами предубеждения, которые могут сбивать алгоритмы», - добавил он.

Таким образом, , Литтон считает, что имеет больше смысла использовать ИИ в качестве помощника, чем полагаться на него в принятии решений за нас.

И почему?

«Мы этого не сделали. выяснил, как разрабатывать алгоритмы, которые «достаточно умны», чтобы учиться самостоятельно », - сказал он. Даже когда алгоритм учится, он учится только потому, что он запрограммирован на это. А кто занимается программированием? Люди.

Чтобы разобраться в этом: поскольку алгоритмы в настоящее время недостаточно умны, чтобы улавливать предубеждения программистов, результаты необходимо постоянно проверять, а алгоритмы настраивать для исправления ошибок.

Глупый современный ИИ.

И снова Литтон говорит, что технология находится в зачаточном состоянии (детский ИИ, если хотите), и со временем потребность в человеческой руке будет устранена - для лучше или (Маск, вы слушаете?) хуже.

«Идея о том, что ИИ может достичь зрелой стадии, когда он действительно может« думать самостоятельно », вполне вероятна», - сказал Литтон. «По мере того, как мы движемся в будущее, в котором у нас будет все больше и больше мощных вычислительных возможностей, возможности безграничны, хотя у меня нет такого же циничного взгляда, как у других, на захват мира ИИ».

Литтон считает, что ИИ всегда будет несколько ограничен тем, на чем мы его работаем. Таким образом, у ИИ всегда будет определенный уровень сдерживания. Тем не менее, мы должны учитывать, что ИИ существенно улучшится в течение следующих десяти или двух лет по мере совершенствования и уточнения алгоритмов.

И есть еще одно ограничение возможностей ИИ. «Существует внутреннее недоверие к тому, что создается алгоритмами», - сказал Литтон. Кроме того, есть опасения по поводу надежности этих прогнозов ИИ. «Это заставляет компании говорить, что они используют ИИ в качестве вспомогательных средств, но не обязательно для фактического принятия решений».

В текущем состоянии ИИ расшифровывать результаты и принимать меры в конечном итоге должны специалисты. < / p>

Простой пример: мы используем интеллектуальный текст на наших смартфонах, но нам решать, имели ли мы в виду «прыгнуть», когда наш телефон набирает «задницаоле. Тем не менее, это области, в которых мы, вероятно, увидим наибольший прогресс в кратчайшие сроки.

«ИИ не может делать то, что человеческий разум может делать прямо сейчас. Люди обладают невероятной способностью учитывать сразу множество факторов », - пояснил Литтон. «Чтобы добраться до места, где ИИ может это сделать, все это должно быть запрограммировано в системе, а мы пока просто не знаем, как это сделать».

Другой аспект - интуиция. рассматривать; люди могут черпать идеи из данных, используя интуицию. А интуицию нельзя научить или запрограммировать… пока.

«В мире управления доступом реально использовать технологию для сертификации запросов доступа», - сказал Литтон в качестве примера. «Если нам нужно проверить весь доступ в конкретной организации, мы можем использовать ИИ для оценки этого доступа и предоставления рекомендаций утверждающим. Однако, если бы алгоритм использовался для принятия фактических решений, риск был бы значительно выше ».

Между тем мы наблюдаем разные уровни использования ИИ в разных отраслях - от банковского дела и юристов до потенциальный рост числа роботов-убийц в армии. Есть ли универсальное сходство в использовании?

«Это похоже на то, что ИИ может анализировать большие объемы данных и автоматизировать повторяющиеся задачи», - сказал Литтон. «Например, ИИ может анализировать журналы, чтобы отслеживать ситуацию после инцидента, или использовать его в режиме реального времени для анализа событий по мере их возникновения. Академические круги используют искусственный интеллект для обработки большого количества информации, чтобы решить множество интересных проблем, например, что может произойти на основе исторической информации или соединения исторических точек, чтобы ответить на вопросы о прошлом ».

И, конечно же: «ИИ также используется в вооруженных силах и правительственных учреждениях для анализа большого количества данных о звонках и поиска информации о террористической или преступной деятельности».

В этом смысле эти различные отрасли используют их алгоритмы для прочесывания огромных объемов данных, которые человеку было бы почти невозможно проанализировать за короткий промежуток времени.

«ИИ имеет ценность в том виде, в каком он существует сегодня, если мы будем осторожны в том, как мы используем информацию », - заключил Литтон. «Мы можем использовать ИИ в качестве точки данных при принятии решений, но я не считаю, что он достаточно продвинут, чтобы полагаться на данные для принятия решений».

Последний вывод о страхах Маска и потенциальном ИИ восстание?

«Хотя все обсуждаемые варианты использования имеют свои достоинства и помогают этим отраслям производить более качественную работу, - заявил Литтон, - мы все еще не приблизились к тому месту, где сам ИИ может производить значимый результат можно полностью положиться без человеческого обзора ».

Будьте уверены, Илон - нам не нужно бояться роботов-убийц ИИ, по крайней мере, на время, пока технология не достигнет уровня, когда ИИ станет способен мыслить самостоятельно.

комментариев

Добавить комментарий