Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Hiten Shah
Hiten Shah a repostat
Am găzduit utilizatori acasă, am negociat contracte SaaS pentru utilizatori, am ajutat utilizatorii să strângă capital, am frânt pâinea cu utilizatorii
Toți membrii echipei noastre sunt obligați prin contract să sară în fața unui autobuz pentru unul dintre utilizatorii noștri dacă situația apare
2,69K
"Nu facem niciun fel de marketing."
Fiecare fondator care spune asta vinde un mit.
Realitatea: fiecare produs care crește are un motor de marketing, chiar dacă fondatorul refuză să-l numească așa.
Uneori este din gură în gură. Uneori este fondatorul podcasturilor sau este obsedat de fluxurile de integrare sau plantează în liniște produsul în comunitățile potrivite până când devine răspunsul pe care oamenii și-l dau unii altora atunci când nimeni nu se uită.
Companiile care se laudă cu "fără marketing" fie mint, fie se ascunde în suecuția de distribuție a altcuiva ca parteneri, integrări, magazine de aplicații și canale pe care nu le controlează, dar pe care se bazează.
Dacă sunteți fondator pentru prima dată, nu lăsați aceste povești să devină o scuză.
Fiecare produs de breakout are același lucru: le oferă oamenilor un motiv să vorbească și apoi facilitează răspândirea acelei discuții. Acesta este marketingul, indiferent dacă îl numești așa sau nu.
Și dacă îl ignori, companiile care o iau în serios vor face ture în jurul tău pentru că nu le pasă cum se numește. Le pasă doar că funcționează.
4,09K
Hiten Shah a repostat
Cele 3 lacune de securitate AI care lasă companiile expuse!
Conversația despre securitatea AI se mișcă rapid.
Dar există lacune fundamentale pe care întreprinderile încă nu le-au abordat.
Pentru raportul nostru, am analizat riscurile de securitate AI din toate industriile și am constatat că majoritatea companiilor fac aceleași 3 greșeli. Iar aceste decalaje nu sunt mici, ci redefinesc cum trebuie să arate securitatea cibernetică într-o lume bazată pe inteligență artificială.
1. Lipsește guvernanța IA
Majoritatea organizațiilor nu au vizibilitate asupra modului în care AI este utilizată în cadrul întreprinderii lor.
▪️Angajații integrează instrumente AI fără aprobarea IT.
▪️Echipele de securitate nu pot urmări ce procesează modelele AI.
▪️Copilotii AI au mai mult acces la datele companiei decât ar trebui.
Aceasta nu este doar o problemă de conformitate, este o defecțiune de securitate.
Dacă nimeni nu deține securitatea AI, cine este responsabil când o decizie generată de AI merge prost?
2. Modelele AI pot fi piratate în tăcere
Securitatea AI nu funcționează ca securitatea software tradițională.
▪️În loc să exploateze codul, atacatorii manipulează datele.
▪️Acestea injectează date de antrenament rău intenționate, creând backdoor-uri silențioase în modelele AI.
▪️Ei reglează modelele pentru a se comporta normal până când sunt declanșate.
▪️Ei folosesc inginerie promptă pentru a extrage date sensibile din răspunsurile AI.
Echipele de securitate nu pot scana un model AI pentru malware.
Și odată ce un model AI este compromis, nici măcar nu veți ști.
3. Securitatea rulării AI este inexistentă
Echipele de securitate petrec luni de zile securizând inteligența artificială înainte de implementare, dar apoi nu o mai monitorizează.
Asta este o problemă.
▪️Pentru că amenințările AI nu se opresc la lansare.
▪️Atacatorii manipulează răspunsurile generate de AI în timp real.
▪️Ei injectează solicitări pentru a ocoli mecanismele de siguranță.
▪️Ei răzuiesc API-urile AI pentru a fura rezultatele modelului.
Și în acest moment, majoritatea echipelor de securitate au vizibilitate minimă asupra tuturor acestor lucruri.
Deci, ce se întâmplă în continuare?
#AI #Cybersecurity #AISecurity #CISO #Automation

2,26K
Limită superioară
Clasament
Favorite