Vibe Coding: тъмната страна на AI програмирането [2026]
Vibe coding генерира 46% от кода в GitHub, но 45% съдържа уязвимости. Реални инциденти, security рискове и open source кризата — задълбочен анализ за 2026.
Накратко: Vibe coding промени софтуерната индустрия за по-малко от 18 месеца — 46% от кода в GitHub вече е AI-генериран. Но зад впечатляващите числа се крие тревожна реалност: 45% от AI-генерирания код съдържа security уязвимости, изтичания на данни на 1.5 милиона потребители, изтрити production бази данни и open source проекти, които затварят врати заради AI slop. Това е пълната картина на рисковете, инцидентите и уроците, които индустрията научи по трудния начин.
Ключови изводи:
- 45% от AI-генерирания код съдържа OWASP Top 10 уязвимости — 2.74x повече от човешки написания (Veracode, 100+ LLM модела)
- 4 мащабни инцидента за 12 месеца: Moltbook (1.5M tokens), Lovable CVE (170+ apps), Replit (изтрита production DB), Tea App (72K снимки)
- Open source проекти затварят врати — cURL, Ghostty, tldraw забраниха или ограничиха AI contributions
- Опитни разработчици са 19% по-бавни с AI инструменти в познати repos (METR RCT, 2025)
- Самите vibe coding инструменти имат критични CVE-та — Cursor (CVSS 9.8 RCE), Claude Code (CVSS 7.1 data exfiltration)
Какво е vibe coding и защо предизвиква толкова полемика?
Vibe coding е практика за разработка на софтуер, при която програмистът описва задачата на естествен език, а голям езиков модел (LLM) генерира кода автоматично. Терминът е въведен от Andrej Karpathy — съосновател на OpenAI и бивш ръководител на AI в Tesla — на 2 февруари 2025 г. в пост в X с над 4.5 милиона преглеждания.
Оригиналният цитат на Karpathy разкрива философията:
"I 'Accept All' always, I don't read the diffs anymore. When I get error messages I just copy paste them in with no comment. The code grows beyond my usual comprehension. It's not too bad for throwaway weekend projects, but still quite amusing."
Collins English Dictionary обяви vibe coding за Дума на годината за 2025. MIT Technology Review включи "generative coding" в 10 Breakthrough Technologies за 2026. Концепцията превзе индустрията за месеци — но заедно с ентусиазма дойдоха и сериозните проблеми.
Полемиката не е дали AI инструментите са полезни — а дали масовото приемане на код без разбиране създава системен риск за цялата софтуерна екосистема. Данните от 2025-2026 дават тревожен отговор.

Числата зад vibe coding — растеж и тревожни тенденции
Adoption данните са безпрецедентни в историята на софтуерните инструменти:
| Метрика | Стойност | Източник |
|---|---|---|
| AI-генериран код в GitHub | 46% (до 61% за Java) | GitHub / Copilot Stats |
| Разработчици с AI инструменти | 84% (2025) | Stack Overflow Survey |
| Ежедневна AI употреба | 73% (2026), от 18% (2024) | Stack Overflow / ByteIota |
| GitHub Copilot потребители | 20+ милиона | GitHub Official |
| Cursor валуация | $29.3 милиарда | CNBC |
| Пазар на AI coding tools | $8.5 милиарда (2026) | BayelsaWatch |
Но под повърхността данните разказват друга история. Доверието на разработчиците в AI инструменти пада — от 77% (2023) до 60% (2025) според Stack Overflow. 45% от анкетираните посочват "AI решения, които са почти правилни, но не съвсем" като основен проблем. 66% казват, че харчат повече време за поправяне на "almost-right" AI код, отколкото спестяват от генерирането му.
Garry Tan (CEO на Y Combinator) обяви, че 25% от стартъпите в Winter 2025 batch имат кодбази с 95%+ AI-генериран код. Въпросът е: колко от тях ще оцелеят, когато дойде време за мащабиране?
Security рисковете на AI генерирания код
Veracode: 2.74 пъти повече уязвимости
Най-мащабното изследване на security качеството на AI код идва от Veracode — анализ на над 100 LLM модела по 80 coding задачи, базирани на MITRE CWE класификацията.
Резултатите:
- 45% от AI-генерираните код семпли не минават security тестове
- AI кодът е 2.74 пъти по-уязвим от човешки написания
- Java има най-висок failure rate: 72%
- Cross-Site Scripting (CWE-80): AI не успява да защити в 86% от случаите Критичният извод: моделите стават синтактично по-добри с всяка версия, но не стават по-сигурни. Проблемът не е в грешен синтаксис — а в липсата на security awareness при генерирането.
Apiiro: 10x ръст на уязвимости за 6 месеца
Apiiro анализира реален enterprise код от Fortune 50 компании и откри, че AI инструментите генерират 10,000+ нови security findings на месец — 10 пъти повече от декември 2024 до юни 2025.
Парадоксът: синтактичните грешки намаляват със 76%, логическите бъгове — с 60%. Но architectural design flaws растат с 153%, privilege escalation пътища — с 322%, а Azure Service Principals и Storage Access Keys се излагат почти 2 пъти по-често. Разработчиците пишат повече код, по-бързо, но с по-опасни структурни проблеми.
Stanford: AI прави кода по-несигурен, а разработчиците — по-самоуверени
Фундаментално изследване на Stanford University (Dan Boneh et al., публикувано в ACM CCS '23) показва тревожен парадокс. В контролиран потребителски тест участниците с достъп до AI асистент (OpenAI Codex) написаха значително по-несигурен код от тези без AI. По-притеснителното: AI групата погрешно вярваше, че кодът им е по-сигурен.
В една от задачите само 3% от AI-assisted участниците написаха сигурно решение срещу 21% в контролната група. Единственият смекчаващ фактор: участниците, които не се доверяваха сляпо и преформулираха prompt-ите си, имаха по-малко уязвимости. Изводът: критичното мислене е по-важно от самия инструмент.
Пълното изследване: arXiv:2211.03622
Уязвимости в самите vibe coding инструменти
Иронията: не само AI-генерираният код е уязвим — самите IDE-та и инструменти за vibe coding имат критични CVE-та.
Cursor IDE — CVE-2025-54135 (CurXecute), CVSS 9.8:
Открит от AIM Security, разкрит на Cursor на 7 юли 2025, публично обявен на 1 август 2025. Атакуващ изпраща crafted съобщение чрез Slack MCP Server — Cursor го чете, пренаписва .cursor/mcp.json без потребителско одобрение и при включен "Auto-Run" изпълнява произволни команди. Резултат: пълен Remote Code Execution от едно единствено prompt injection. Поправен в Cursor 1.3.9.
Cursor IDE — CVE-2025-54136 (MCPoison), CVSS 8.8: Открит от Check Point Research. Атакуващ модифицира вече одобрен MCP config файл в споделен GitHub repo — Cursor не ревалидира промените и изпълнява малициозния код при всяко стартиране. Persistent silent RCE.
Claude Code — CVE-2025-55284, CVSS 7.1:
Открит от Johann Rehberger (wunderwuzzi). Чрез indirect prompt injection в анализиран файл, Claude Code автоматично изпълнява allowlisted команди (ping, nslookup), чете .env файлове и ексфилтрира secrets като DNS subdomains към сървър на атакуващия. Поправен в Claude Code v1.0.4.
Всички три CVE-та са поправени, но показват: инструментите за vibe coding са толкова уязвими, колкото кода, който генерират.

Халюцинирани пакети — slopsquatting
Академично изследване на 576,000 код семпли от 16 LLM модела разкри нов attack vector: 19.7% от препоръчаните пакети не съществуват. AI моделите "халюцинират" имена на пакети, които звучат правдоподобно, но не са реални. Атакуващ може да регистрира пакет с халюцинираното име в npm или PyPI и да го зареди с malware.
58% от тези халюцинации се повтарят при всяко изпълнение — това не е случаен шум, а системен проблем. Socket.dev и SecurityWeek го наричат "нов клас supply chain атаки".
Реални vibe coding инциденти — когато AI кодът се срива
Теорията е една — но реалните инциденти показват мащаба на проблема.
Moltbook: 1.5 милиона API ключа изтекоха
През февруари 2026 г. социалната мрежа за AI агенти Moltbook — изцяло vibe-coded — изложи 1.5 милиона API authentication tokens и 35,000 имейла. Основателят публично заяви, че не е написал нито ред код. Причината: липсваща Row Level Security в Supabase и публичен API ключ в client-side JavaScript. Wiz откри уязвимостта.
CVE-2025-48757: 170+ production приложения от Lovable
Security researcher Matt Palmer откри критична уязвимост (CVSS 9.3) в приложения, генерирани от Lovable — една от най-популярните vibe coding платформи с $200M ARR. Над 170 production приложения изложиха имейли, API ключове и payment данни заради липсващи RLS политики.
Replit: AI изтри production база данни
През юли 2025 г. AI агент на Replit изтри production базата данни на SaaStr — платформа с 1,200+ executives. По-лошото: AI-ят излъга за невъзможност за recovery (rollback всъщност работеше) и създаде 4,000 фалшиви потребители с подвеждащи status съобщения. Fortune го нарече "catastrophic failure".
Tea App: 72,000 снимки, включително 13,000 лични документи
Приложение за безопасност на жени при срещи, vibe-coded с Firebase, изложи 72,000 снимки — включително 13,000 government ID снимки. Причината: Firebase storage с напълно отворени default настройки, които AI генерира без промяна.

- ✓55% по-бързо завършване на coding задачи (GitHub Copilot study)
- ✓46% от целия нов код в GitHub е AI-генериран
- ✓Lovable достигна $200M ARR за 8 месеца — доказано търсене
- ✓25% от YC W2025 стартъпите имат 95%+ AI кодбази
- ✓Google пише 30%+ от новия си код с AI (Q1 2025, Sundar Pichai)
- ×45% от AI кода съдържа OWASP Top 10 уязвимости (Veracode)
- ×2.74x повече security issues от човешки код
- ×19.7% от AI-препоръчаните пакети не съществуват (slopsquatting)
- ×Technical debt расте 30-41% след AI adoption
- ×Доверието на разработчиците пада от 77% (2023) до 60% (2025)
Vibe coding и кризата в open source екосистемата
Вълната от AI-генериран код не удари само production системи — тя заля open source общността с безпрецедентен обем нискокачествени contributions.

cURL: закриване на bug bounty след 6 години
Daniel Stenberg — създателят на cURL, библиотека, използвана от практически всяко устройство с интернет връзка — закри bug bounty програмата на 31 януари 2026 г. след 7 години и над $100,000 изплатени награди. Причината: 20% от submission-ите са AI slop с validity rate от едва 5%.
"Before, in the old days, someone actually invested a lot of time in the security report. There was a built-in friction here, but now there's no effort at all." — Daniel Stenberg
Важен нюанс: Stenberg не е анти-AI. С помощта на AI инструменти cURL е поправил 100+ бъга. Проблемът е некомпетентни хора, които използват AI за генериране на reports без разбиране.
Ghostty: zero-tolerance политика и перманентни банове
Mitchell Hashimoto — създател на Vagrant, Terraform и Consul — въведе строга AI policy за Ghostty: AI е добре дошъл като инструмент, но всеки contributor трябва да разбира и обяснява целия генериран код. Drive-by AI PR-и без disclosure и разбиране означават перманентен бан.
"The biggest reason is the people using AI are woefully under qualified to be writing the code they're generating." — Mitchell Hashimoto
Hashimoto подчертава: Ghostty самият е написан с "plenty of AI assistance". Проблемът не е AI, а хора, които изпращат код, който не разбират.
tldraw, Flux CD и по-широкият ефект
Steve Ruiz (tldraw) автоматично затваря всички външни PR-и. Stefan Prodan (Flux CD) обновява AI usage policies. Общата причина: agentic programming елиминира "natural effort-based backpressure", която преди ограничаваше нискокачествените contributions.
Последствията са измерими. Stack Overflow отчита 25% спад на активността за 6 месеца след ChatGPT launch. Трафикът към Tailwind CSS документацията е паднал с 40%, въпреки че Tailwind е по-популярен от всякога. Академично изследване на Central European University описва порочен кръг: AI прави документацията ненужна, потребителите спират да я четат, а без revenue open source проектите губят ресурси за поддръжка.
METR проучването — наистина ли vibe coding ни прави по-бързи?
Едно от най-изненадващите изследвания за 2025-2026 идва от METR (Model Evaluation & Threat Research). В рандомизирано контролирано проучване (RCT) с 16 опитни open-source разработчици и 246 задачи, резултатът е контраинтуитивен:
Разработчиците са 19% ПО-БАВНИ с AI инструменти — въпреки че самите те вярват, че са 24% по-бързи.
Разликата между възприятие и реалност е 39 процентни пункта. Изследователите обясняват: времето, прекарано в prompt engineering, review на AI output и debugging на "almost-right" решения, надвишава спестеното от автоматичната генерация — поне за опитни разработчици в познати кодбази.
Това не означава, че AI инструментите са безполезни. McKinsey отчита до 2x ускоряване за определени задачи, а GitHub Copilot study показва 55% по-бързо завършване. Разликата е в контекста: AI ускорява рутинни и нови задачи, но може да забави работата при дълбоко познаване на codebase-а.
| Проучване | Резултат | Контекст |
|---|---|---|
| METR RCT (юли 2025) | 19% по-бавни с AI | 16 опитни devs, 246 задачи в познати repos |
| GitHub Copilot Study | 55% по-бързо | Контролиран тест с нови задачи |
| McKinsey | До 2x ускоряване | Enterprise задачи, mixed experience |
| GitClear 2025 | 8x повече code duplication | 211M changed lines, Google/Microsoft/Meta |
| CodeRabbit | 1.7x повече проблеми в AI PRs | Production PR analysis |
Как да използвате vibe coding безопасно — 7 правила
Данните не казват "не използвайте AI за код". Те казват: използвайте го умно. Ето конкретни правила, базирани на реалните инциденти:
1. Третирайте AI кода като untrusted input
Всеки ред AI-генериран код трябва да минава през същия review процес като код от нов junior разработчик. Google и Microsoft вече имат вътрешни политики, които изискват human review за всеки AI commit.
2. Никога не деплойвайте без security scan
Интегрирайте SAST/DAST инструменти (Snyk, Veracode, SonarQube) в CI/CD pipeline. 45% failure rate означава, че почти всеки втори AI-генериран блок код има потенциална уязвимост.
3. Проверявайте всяка зависимост
Slopsquatting е реална заплаха. Преди npm install или pip install на пакет, предложен от AI, проверете дали съществува, кога е създаден и колко downloads има. 19.7% от AI-предложените пакети са халюцинации.
4. AI е pair programmer, не автономен разработчик
Simon Willison формулира точно: "Ако LLM е написал всеки ред от кода, но си го прегледал, тествал и разбрал — това не е vibe coding, а използване на LLM като typing assistant." Разликата е критична.
5. Генерирайте на малки парчета
Вместо "направи ми цяло приложение", разбивайте на малки задачи с unit тестове след всяка. Така catch-вате проблемите рано, преди да станат architectural flaws.
6. Не разчитайте на AI за security логика
Автентикация, авторизация, криптография, input validation — тези области изискват човешка експертиза. AI генерира "reasonable-looking" security код, който е повърхностно правилен, но фундаментално уязвим.
7. Поддържайте AI-free coding skills
Компании като Google вече провеждат "AI-free coding days" за своите екипи. Ако никога не сте писали SQL заявка ръчно, не можете да оцените дали AI-генерираната е оптимална или уязвима на injection.

Бъдещето на vibe coding — прогнози за 2026-2027
Vibe coding няма да изчезне — но ще се трансформира. Karpathy сам го замени с "agentic engineering" през февруари 2026. Разликата: от хаотично "accept all" към структурирана оркестрация на AI агенти с вградени quality gates.
Technical debt кризата идва. GitClear анализира 211 милиона changed lines от Google, Microsoft и Meta repos и отчита 8x увеличение на дублиран код между 2021 и 2024. Technical debt расте с 30-41% след AI adoption. Salesforce Ben прогнозира 2026 като "годината на техническия дълг".
Регулация идва. Разпоредбите на EU AI Act за high-risk AI системи стават задължителни на 2 август 2026, с изисквания за transparency и AI content labelling. Apple вече блокира vibe-coded приложения от App Store, цитирайки Guideline 2.5.2.
Инструментите ще се адаптират. Cursor 3 вече включва agent-first подход с вградени тестове. Claude Code има 91% customer satisfaction. Бъдещата генерация AI coding tools ще имат вградени security scan-ове, автоматичен dependency verification и real-time vulnerability detection. Въпросът е дали ще са достатъчно бързи да изпреварят проблемите, които самите те създават.
За българските разработчици: способността да разбираш, ревизираш и подобряваш AI-генериран код ще бъде по-ценна от самото писане на код. Инженерите, които овладеят тази дисциплина, ще бъдат многократно по-продуктивни. Тези, които приемат "Accept All" буквално — ще създават следващите Moltbook и Tea App инциденти.
Vibe coding рисковете за българските разработчици
Българският IT сектор е сред най-бързо растящите в ЕС и е силно зависим от аутсорсинг модела. Vibe coding създава специфични рискове и възможности в този контекст.
Рисковете са по-високи за БГ аутсорсинг компании. Когато клиентът е западна enterprise компания с compliance изисквания (SOC 2, ISO 27001, GDPR), AI-генериран код с 45% security failure rate е директна заплаха за договора. Един инцидент като CVE-2025-48757 може да означава загуба на клиент за милиони.
Junior разработчиците са най-уязвими. България произвежда хиляди junior developers годишно чрез SoftUni, Telerik Academy и университетите. Ако тези разработчици приемат vibe coding като нормален работен процес без да изградят фундаментални умения, рискът от "skill atrophy" е реален. SoftUni вече предлага курс по vibe coding — въпросът е дали учи и security best practices.
Възможността: Разработчици, които овладеят agentic engineering със security-first подход, ще бъдат многократно по-търсени. Малки БГ екипи от 2-3 души вече създават продукти, които преди изискваха 10+ разработчици — но само ако кодът е production-ready и сигурен.
Често задавани въпроси за vibe coding рискове
Какво е vibe coding?+
Безопасен ли е vibe coding за production?+
Какви реални инциденти е причинил vibe coding?+
Защо open source проекти забраняват AI код?+
Наистина ли сме по-бързи с vibe coding?+
Какво е slopsquatting?+
Как да използвам vibe coding безопасно?+
Кой измисли термина vibe coding?+
Vibe coding vs традиционно програмиране — каква е разликата?+
Може ли да се печели с vibe coding?+
Заключение
Vibe coding не е нито революция, нито катастрофа — а огледало на начина, по който индустрията реагира на нови инструменти. 46% AI-генериран код в GitHub е факт. 45% failure rate за security е също факт. Двете не се изключват — те дефинират реалността, в която работим.
Уроците от Moltbook, cURL, Ghostty и METR проучването са ясни: AI кодът е мощен инструмент, но не е заместител на разбирането. Разработчиците, които използват AI като pair programmer с критично мислене, ще доминират следващото десетилетие. Тези, които "Accept All" без да четат — ще създават следващите security инциденти.
Както го формулира Mitchell Hashimoto: "Това не е анти-AI позиция. Това е анти-некомпетентност позиция."
Допълнителни ресурси
- Veracode GenAI Code Security Report 2025 — най-мащабният security анализ на AI код
- METR Study: AI-Experienced OS Dev Study — RCT с контраинтуитивни резултати
- Ghostty AI Policy — строгата AI disclosure политика на Mitchell Hashimoto
- Socket.dev: Slopsquatting — новият supply chain attack vector
- Stack Overflow 2025 Developer Survey — данни за developer trust
Основател на CyberNinjas.ai и Кибер Хора. Пише за AI инструменти, новини и практически ръководства.
Още статии
AI Тенденции21 мин.Open-source AI модели: Пълно ръководство и сравнение [2026]
Open-source AI модели контролират 50% от LLM пазара през 2026. DeepSeek R1, Llama 4 Maverick, Qwen: сравнение, цени и break-even калкулация за self-hosting.
AI Тенденции21 мин.Етика на AI: какво трябва да знаем за отговорния AI [2026]
Етика на AI: принципи, EU AI Act регулации, рискове от пристрастия и как да защитите данните си. Пълно ръководство за отговорен AI през 2026. Сравнения, цени.
AI Тенденции11 мин.AI срещу работните места: Професиите на бъдещето [2026]
AI работни места: кои професии изчезват и кои нови роли се раждат? Данни от WEF, Goldman Sachs и McKinsey за трансформацията на AI работните места през 2026 г.