Недавно один из технологических гигантов стал первой публичной компанией с рыночной капитализацией более 4 триллионов долларов. Это знаменательное событие вызвало размышления о будущем развития отрасли ИИ. Несмотря на то, что прогнозы по поводу перспектив ИИ полны вызовов, оглядываясь на его 80-летнюю историю, мы можем извлечь из этого ценные уроки.
Происхождение ИИ можно проследить до 1943 года, когда два ученых опубликовали теоретическую статью о нейронных сетях. Эта статья, хотя и лишенная экспериментальных доказательств, вдохновила на развитие того, что впоследствии стало называться "глубоким обучением". Это говорит нам о том, что необходимо быть осторожными, смешивая инженерию с наукой, догадки с фактами, а также избегать заблуждения о том, что "человечество может создать машины, идентичные себе".
На протяжении последних нескольких десятилетий предсказания о скором достижении общего искусственного интеллекта (AGI) следовали одно за другим. С 1950-х до 1980-х годов, а затем и в последние годы многие эксперты с уверенностью говорили о приближении AGI. Однако, как оказалось, эти предсказания часто были чрезмерно оптимистичными. Мы должны осторожно относиться к тем, на первый взгляд, захватывающим новым технологиям и тщательно оценивать их сходство и различия с предыдущими предсказаниями.
В процессе развития ИИ люди часто попадают в "заблуждение первого шага". То есть, они считают, что как только будет достигнут первоначальный прогресс, до идеального достижения цели осталось недалеко. Но на самом деле между полной невозможностью выполнения задачи и едва удовлетворительным выполнением, а также между едва удовлетворительным и выдающимся выполнением существует огромная пропасть.
В 1980-х годах экспертные системы были на пике популярности. Однако к началу 1990-х этот бум быстро сошел на нет. Это показывает, что даже при широком применении и значительных инвестициях, это не обязательно гарантирует долгосрочное развитие технологии. Пузырь в конечном итоге лопнет.
Долгое время две основные школы ИИ - символизм и коннекционизм - боролись за господство. В последние годы методы коннекционизма, представленные глубоким обучением, добились огромного успеха. Но мы не должны возлагать все надежды на один метод, а должны сохранять открытость и исследовать разнообразные пути развития ИИ.
Развитие в области ИИ полно неопределенности. Как технологические компании, так и исследовательские учреждения должны всегда быть настороже и гибко реагировать на возможные изменения. В то же время, извлечение уроков из истории также поможет нам лучше понять направления будущего развития ИИ.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
18 Лайков
Награда
18
5
Поделиться
комментарий
0/400
SingleForYears
· 07-17 16:32
Чем более слепо, тем опаснее.
Посмотреть ОригиналОтветить0
SatoshiSherpa
· 07-16 14:52
Честно говоря, это правильно.
Посмотреть ОригиналОтветить0
GigaBrainAnon
· 07-16 14:51
Прогнозы всегда оказываются неверными
Посмотреть ОригиналОтветить0
just_another_fish
· 07-16 14:40
Лежать на равнине, пока технологии не станут зрелыми
Откровение о развитии ИИ за 80 лет: избегайте оптимистичных прогнозов и зависимости от единственного пути
Пять главных уроков 80-летнего развития ИИ
Недавно один из технологических гигантов стал первой публичной компанией с рыночной капитализацией более 4 триллионов долларов. Это знаменательное событие вызвало размышления о будущем развития отрасли ИИ. Несмотря на то, что прогнозы по поводу перспектив ИИ полны вызовов, оглядываясь на его 80-летнюю историю, мы можем извлечь из этого ценные уроки.
Происхождение ИИ можно проследить до 1943 года, когда два ученых опубликовали теоретическую статью о нейронных сетях. Эта статья, хотя и лишенная экспериментальных доказательств, вдохновила на развитие того, что впоследствии стало называться "глубоким обучением". Это говорит нам о том, что необходимо быть осторожными, смешивая инженерию с наукой, догадки с фактами, а также избегать заблуждения о том, что "человечество может создать машины, идентичные себе".
На протяжении последних нескольких десятилетий предсказания о скором достижении общего искусственного интеллекта (AGI) следовали одно за другим. С 1950-х до 1980-х годов, а затем и в последние годы многие эксперты с уверенностью говорили о приближении AGI. Однако, как оказалось, эти предсказания часто были чрезмерно оптимистичными. Мы должны осторожно относиться к тем, на первый взгляд, захватывающим новым технологиям и тщательно оценивать их сходство и различия с предыдущими предсказаниями.
В процессе развития ИИ люди часто попадают в "заблуждение первого шага". То есть, они считают, что как только будет достигнут первоначальный прогресс, до идеального достижения цели осталось недалеко. Но на самом деле между полной невозможностью выполнения задачи и едва удовлетворительным выполнением, а также между едва удовлетворительным и выдающимся выполнением существует огромная пропасть.
В 1980-х годах экспертные системы были на пике популярности. Однако к началу 1990-х этот бум быстро сошел на нет. Это показывает, что даже при широком применении и значительных инвестициях, это не обязательно гарантирует долгосрочное развитие технологии. Пузырь в конечном итоге лопнет.
Долгое время две основные школы ИИ - символизм и коннекционизм - боролись за господство. В последние годы методы коннекционизма, представленные глубоким обучением, добились огромного успеха. Но мы не должны возлагать все надежды на один метод, а должны сохранять открытость и исследовать разнообразные пути развития ИИ.
Развитие в области ИИ полно неопределенности. Как технологические компании, так и исследовательские учреждения должны всегда быть настороже и гибко реагировать на возможные изменения. В то же время, извлечение уроков из истории также поможет нам лучше понять направления будущего развития ИИ.