Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akshay 🚀
Упрощение LLM, агентов ИИ, RAG и машинного обучения для вас! • Соучредитель @dailydoseofds_• BITS Pilani • 3 патента • бывший инженер по искусственному интеллекту @ LightningAI
Microsoft.
Google.
AWS.
Все пытаются решить одну и ту же проблему для AI-агентов:
Как построить графы знаний, которые достаточно быстры для приложений LLM в реальном времени?
FalkorDB — это графовая база данных с открытым исходным кодом, которая решает эту задачу, переосмысливая, как работают графы. Она использует разреженные матрицы и линейную алгебру вместо традиционного обхода!
Давайте разберемся, что делает их такими быстрыми:
Традиционные графовые базы данных хранят отношения в виде связанных узлов и обходят их по одному шагу за раз.
Но есть проблема:
Когда вы запрашиваете соединения, база данных проходит через узлы и ребра, как следуя по карте. Для огромных графов знаний, поддерживающих AI-агентов, это создает серьезное узкое место.
Но что если вы могли бы представить весь граф в виде математической структуры?
Здесь на помощь приходят разреженные матрицы.
Разреженная матрица хранит только существующие соединения. Никакого пустого пространства, никаких ненужных данных. Только важные отношения.
И вот прорыв:
Как только ваш граф становится разреженной матрицей, вы можете запрашивать его, используя линейную алгебру вместо обхода. Ваши запросы становятся математическими операциями, а не пошаговыми обходами узлов.
Математика быстрее обхода. Намного быстрее.
Кроме того, разреженные матрицы делают хранение невероятно эффективным. Вы храните только то, что существует, что означает, что вы можете разместить огромные графы знаний в памяти, не расходуя ресурсы.
Так почему бы не остаться на векторном поиске?
Векторный поиск быстрый, но он захватывает только наивное сходство. Они находят паттерны, но упускают структуру.
Графы захватывают тонкие отношения между сущностями. Это гарантирует, что контекст, полученный для вашего агента, будет высоко точным и актуальным, а не просто "похожим."
И вот что вы получаете с FalkorDB:
↳ Ультрабыстрая, многопользовательская графовая база данных
↳ Эффективное хранение с использованием разреженной матричной репрезентации
↳ Совместимость с OpenCypher (тот же язык запросов, что и Neo4j)
↳ Построена специально для приложений LLM и памяти агентов
↳ Работает на Redis для легкого развертывания
Начать работу можно с одной команды Docker. Я протестировал это с их Python-клиентом, и разница в производительности сразу заметна.
Если вы создаете AI-агентов, которым нужен доступ к связанным данным в реальном времени, это стоит изучить.
Лучшая часть — это 100% открытый исходный код!
Я поделился ссылкой на их репозиторий GitHub в следующем твите!
55,86K
Google только что выпустил "Внимание — это всё, что вам нужно (V2)"
Эта статья может решить самую большую проблему ИИ:
Катастрофическое забывание.
Когда модели ИИ учатся чему-то новому, они, как правило, забывают то, что выучили ранее. Люди не работают таким образом, и теперь у Google Research есть решение.
Nested Learning.
Это новая парадигма машинного обучения, которая рассматривает модели как систему взаимосвязанных задач оптимизации, работающих на разных скоростях — так же, как наш мозг обрабатывает информацию.
Вот почему это важно:
LLM не учатся на опыте; они остаются ограниченными тем, что выучили во время обучения. Они не могут учиться или улучшаться со временем, не теряя предыдущие знания.
Nested Learning меняет это, рассматривая архитектуру модели и алгоритм обучения как одно и то же — просто разные "уровни" оптимизации.
Статья представляет Hope, архитектуру, подтверждающую этот подход:
↳ Hope превосходит современные рекуррентные модели в задачах языкового моделирования
↳ Она лучше справляется с памятью долгого контекста, чем модели на переднем крае
↳ Это достигается за счет "систем памяти континуума", которые обновляются с разной частотой
Это похоже на то, как наш мозг управляет краткосрочной и долгосрочной памятью одновременно.
Мы, возможно, наконец, сокращаем разрыв между ИИ и способностью человеческого мозга постоянно учиться.
Я поделился ссылкой на статью в следующем твите!

479,24K
Топ
Рейтинг
Избранное

