[
[ARCHIVED] Учусь учиться
@uchus_uchitsya499 подп.
459просмотров
92.0%от подписчиков
1 июля 2025 г.
statsScore: 505
Верни мне мой 2008-й Сегодня речь пойдёт не про горящий сентябрь, а про времена первого iPhone и Android 1.0-1.5. В это состояние меня внезапно погрузил недавний анонс Artifacts от Anthropic (это те, кто разрабатывает Claude — аналог ChatGPT) Кратко: Artifacts — это приложение, собранное в диалоге с Claude и работающее прямо внутри его интерфейса. Без скачивания, без установки — прямо в том же окне. Причём даже на бесплатных тарифах. Главное — такие приложения можно дорабатывать и копировать. А при использовании расходуются токены не разработчика, а пользователя. Работает пока криво-косо, с багами. Но работает. И это принципиально новый опыт. Не нужно поднимать окружение, арендовать сервера, ничего ставить. Просто открыл ссылку — и ты уже внутри. Пример — мой собственный тестовый артефакт, собранный за 5 минут. (Нормально работает пока только на десктопе, но зато даже авторизация в Claude не нужна.) Похожее чувство было у меня от Android 1.3 на старом HTC — с дерьмовеньким тачскрином, лагами и вечными перезагрузками. Но это уже было будущее. Вот и сейчас — такое же ощущение. Вообще разработчики крупных LLM-моделей так или иначе смотрят в сторону превращения своих систем в полноценную среду исполнения. OpenAI сделали GPTs (которые пока не очень взлетели), и вот Anthropic сделали следующий шаг с Artifacts. Это всё ещё ранняя стадия. Как в эпоху, когда «драйвера часто приходилось писать самому». Но и раньше программисты начинали с ассемблера и низкоуровневой архитектуры, а теперь вовсю вайб-кодят не приходя в сознание (шутка, но с долей правды). Я бегло посмотрел, что ещё происходит в этом направлении — и нашёл минимум три проекта, которые прямо исследуют превращение LLM в операционную систему: 1. 🧠 MemGPT — проект UC Berkeley: модель сама управляет «контекстной памятью», выгружая и подгружая информацию как ОС работает с оперативкой. 2. 🧩 LLaMaS — вместо драйверов достаточно описать новое устройство, и LLM сама сформирует нужную конфигурацию. 3. ⚙️ AIOS — архитектура, где система управляет агентами, задачами, доступом к ресурсам. Почти как ядро новой ОС. Кажется, подход с «супераппами внутри модели» решает сразу несколько задач: 1. Привязать пользователей к своей инфраструктуре, усложнив переход к конкуренту за счёт уникальных фич. 2. Вытеснить «серый рынок» — телеграм-ботов, API-обёртки и агрегаторы. 3. Собирать больше данных о поведении пользователей, мягко вовлекая их в собственную экосистему. С каждым днём у меня всё меньше сомнений, что AI с нами всерьёз и надолго — и всё больше понимания, что игнорировать его уже сродни отказу от интернета в начале 2000-х. На консультациях я всё чаще советую клиентам начать с простого: 📌 сформулируйте задачу в ChatGPT, 📌 посмотрите, что он предложит, 📌 позадавайте уточняющие вопросы, 📌 после этого приходите ко мне за консультацией. Может показаться, что я таким образом «стреляю себе в ногу» и отказываюсь от работы. Но, на мой взгляд, это честнее. Потому что ChatGPT действительно стал новой нормой — как когда-то Google, а потом смартфоны. И лучше не бороться с этим, а встроиться. Когда-то я с энтузиазмом ставил кастомные прошивки на свой HTC, потом перешёл на Apple за их простоту и цельность. Интересно — какими будут мои воспоминания о ChatGPT, Claude, Gemini лет через пятнадцать?
459
просмотров
3289
символов
Да
эмодзи
Нет
медиа

Другие посты @uchus_uchitsya

Все посты канала →
Верни мне мой 2008-й Сегодня речь пойдёт не про горящий сент — @uchus_uchitsya | PostSniper