Интернет-ресурсы по теме Сильного ИИ

  • scorcher.ru – сайт с большим объемом информации, в том числе, об устройстве мозга, поведении. Автор – Nick Fornit, также представляет свою модель развития адаптивных механизмов мозга, приводящих к индивидуальной возможности адаптации к новому. Информация не всегда легко воспринимается, но это, по-моему, лучший ресурс для понимания механизмов мыслительной деятельности.
  • OpenCog.org – проект Бена Герцеля (Dr. Ben Goertzel). Предлагает не столько какую-то новую модель сильного ИИ, сколько строит программную инфраструктуру, позволяющую объединять разные компоненты. Честно говоря, не нашел там для себя чего-то интересного. Также проводят конференции по теме AGI.

Если знаете еще какие-то ресурсы на тему сильного ИИ, пишите в комментариях, буду добавлять.

Comments

  1. Я бы добавил материалы по Reinforcement Learning.
    Скажем так, если “сильный ИИ” не равно “универсальный RL”, то хотелось бы строгую постановку задачи, с максимально конкретными метриками. Хотя бы на этом уровне:
    интеллект = оптимизирующая способность/затраты ресурсов
    https://intelligenceexplosion.com/ru/2011/playing-taboo-with-intelligence/

    Потом. Если мы всё-таки решаем задачу Reinforcement Learning (максимизировать некую функцию, выраженную через сигнал подкрепления), то хорошо бы описать, что такое QLearning. Хотя бы так:
    https://ru.wikipedia.org/wiki/Q-%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5
    Хотя мне не очень нравится это описание… Но лучшего я не нашёл.
    Ещё я бы описал, что такое SARSA, и почему с такой красивой идеей такие красивые проблемы.
    https://en.wikipedia.org/wiki/State%E2%80%93action%E2%80%93reward%E2%80%93state%E2%80%93action
    Это всё не про Deep Learning. Deep Learning выполняет роль аппроксиматора, но вообще, здесь можно использовать практически любой аппроксиматор.

    Имеет смысл так же глянуть, что такое AIXI – это непрактичная, но важная с теоретической точки зрения модель, она полезна, чтобы теоремы об ИИ доказывать.
    https://turchin.livejournal.com/488550.html
    Довольно простая статья… На фоне остальных статей по AIXI. Я не знаю, почему люди не могут описать эту идею проще.

    Ещё по теории сильного ИИ и по обоснованию, почему плох DL (и символьные ИИ тоже) я бы порекомендовал вот этот сайт:
    http://aideus.ru/

    И ещё вот место, где люди тестируют свои модели интеллекта:
    https://gym.openai.com/

    1. Приветствую!
      Я смотрю на проблему сильного ИИ с точки зрения эволюции живых существ. Механизм интеллекта развился как способность адаптироваться к окружающей среде и обеспечить выживание вида в самых разных условиях.
      Причем, усложнение строения нервной системы шло постепенно. Соответственно основано все на простых, надежных механизмах. Теории и концепции ИИ, основанные на математических понятиях мне кажутся не правдоподобными, именно на уровне сознательной, рассудочной деятельности, которая максимально универсальна. На низком уровне (распознавание образов, рефлекторное поведение) вполне могут работать какие-то механизмы выражаемые математическими теориями.

      1. Тогда накину ещё вот это)
        https://habr.com/ru/company/piter/blog/456160/
        Как люди эволюцией делали ИИ.
        Ну и статья о лично моих экспериментах в этой же области)
        https://habr.com/ru/post/323648/

        Это не та эволюция, что в природе – особи не взаимодействуют. Тем не менее результат получается в каком-то смысле более биологичным, чем у RL.

        И… Не знаю, может, вам это окажется важным. А может, и нет. Есть условно два подхода к ИИ – когнитивные архитектуры (передираем идеи из природы) и инженерный подход (отталкиваемся от того, каким мы хотим видеть ИИ, и делаем). Очень похоже, что ни один, ни другой подход сам по себе несостоятелен. “Природный” – потому что сложно понять, зачем в мозгу нужно то-то и то-то. Может, это баг, и его надо удалить? Инженерный – потому что… Ну есть у нас формула идеального интеллекта, и что? Его всё равно надо обучить, а алгоритм обучения у нас отстойный. Природа потратила кучу времени на эволюцию, а у нас столько времени нет. Учёные пытались сделать свёрточную нейросеть чем-то типа эволюции, и не смогли – слишком долго. А вскрыли череп – и передрали конволюционку в момент, и после этого нейронки стали рулить в анализе картинок.

Добавить комментарий