Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
не мог понять, почему Зак заплатил 15 миллиардов долларов за 15 сотрудников из scaleAI (компания по обработке данных)
поэтому я углубился в это и думаю, что разобрался:
Мы не исчерпываем данные. На самом деле, все наоборот.
Одна самоходная машина производит 2 ТБ (это 800 000 книг) данных ЗА ЧАС.
Проблема в том, что данные в беспорядке, их не так просто использовать для обучения LLM, поэтому они просто выбрасываются на свалку данных, чтобы кто-то другой решил эту проблему (никто не решает).
Серьезная нехватка хороших инженеров по данным
Та свалка, о которой я упоминал выше, на самом деле является золотой жилой, если вы можете ее отсортировать
Проблема в том, что очень немногие люди обладают умом или временем. Думаю, именно поэтому Зак заплатил 15 миллиардов долларов за сотрудников scaleAI
Данные более высокого качества гораздо ценнее, чем "количество" данных
Особенно для моделей после обучения (например, вычисления во время тестирования).
Это также требует меньше вычислительных ресурсов, что снижает стоимость обучения моделей.
Так что если ваша команда по обучению может 1. Отсортировать высококачественные данные 2. Внедрить их в постобучение и 3. Снизить затраты - вы выиграете гонку ИИ (бесценно).
1,63K
Топ
Рейтинг
Избранное