Přeskočit na obsah

Bezpečnost AI: jak riskovat bezpečně

Nastavit AI nástroje tak, aby byly bezpečné pro běžnou marketingovou práci s firemními daty — bez paranoie, ale s hlavou. Pochopit, která rizika jsou reálná a která vymyšlená.

  • Při onboardingu nového člena týmu
  • Když zvažuješ nový AI nástroj
  • Když se zeptá IT/legal, jak to řešíme
  • Před prací s citlivými daty (zákazníci, smlouvy, finance)

Největší riziko není AI, kterou firma používá. Je to AI, kterou firma nemá, protože se bojí.

Konkurence na AI už jede. Čekat, až bude „nulové riziko”, znamená prohrávat měsíce. Cílem je riskovat bezpečně — ne riskovat nulově.

1. Používej placené nástroje, ne zadarmo

Sekce “1. Používej placené nástroje, ne zadarmo”

Zadarmo = tvoje data trénují jejich model. Placený účet = smluvní garance, že netrénují.

Telly standard:

  • ChatGPT Plus / Team — nikdy free
  • Claude Pro / Team — nikdy free
  • Gemini Advanced (Google Workspace business plán)
  • Perplexity Pro — nikdy free

2. Vypni trénování na tvých datech (vždy)

Sekce “2. Vypni trénování na tvých datech (vždy)”

I u placených nástrojů bývá trénování defaultně zapnuté. Vypni:

  • ChatGPT: Settings → Data Controls → „Improve the model for everyone” → OFF
  • Claude: defaultně netrénuje na konverzacích Pro/Team (OK) — jen ověř u Team/Enterprise smlouvy
  • Gemini: Activity → Gemini Apps Activity → Pause

3. Poznej tři reálná rizika

Sekce “3. Poznej tři reálná rizika”
RizikoCo to jeJak se bránit
Prompt injection přes integraceAI s přístupem k mailu/kalendáři může být oklamána skrytou instrukcí v emailu od útočníkaOmez integrace na read-only. Nepouštěj agenty na odesílání mailů bez kontroly.
Neznámé nástrojeNový „revoluční” nástroj si stahuje tvé promptyPoužívej jen známé značky (OpenAI, Anthropic, Google). Nové testuj jen na veřejných datech.
Programování bez znalostíAI napíše kód s dírou — key v GitHubu, SQL injectionKód do produkce jde přes review. Secrets do env, ne do kódu.
  • Veřejně dostupná data (web, články, transkripty meetingů)
  • Interní materiály bez osobních údajů (strategie, briefy, prezentace)
  • Koncepty, brainstorming, drafty
  • Přepisy tvých vlastních myšlenek

5. Co do AI NEMŮŽE (bez souhlasu Jana + IT)

Sekce “5. Co do AI NEMŮŽE (bez souhlasu Jana + IT)”
  • Osobní údaje zákazníků (jména, emaily, tel. čísla, adresy)
  • Platy, HR hodnocení, individuální výkony lidí
  • Smlouvy s dodavateli (cenové podmínky)
  • Finanční výkazy, prodejní plány, marže
  • Login credentials, API klíče, hesla

6. Shadow AI je normální (neboj se přiznat)

Sekce “6. Shadow AI je normální (neboj se přiznat)”

80 %+ firem má Shadow AI — lidi používají AI bez vědomí IT. Místo zákazů: otevřená komunikace. Když někdo v týmu používá nástroj, o kterém nevíme, raději ať to řekne — vyhodnotíme společně.

  • U každého AI nástroje máš placený účet a trénování vypnuté
  • Víš, co můžeš a nemůžeš do AI dávat
  • Při pochybnosti se ptáš (Jan, IT) — ne mlčíš
  • IT říká „žádná AI” — přines data. 80 %+ firem už AI používá. Alternativa: enterprise plán s garancí (Claude Team, ChatGPT Enterprise) = auditovatelné.
  • Klient se ptá, jestli jeho data dáváme do AI — odpověz upřímně: používáme placené nástroje s vypnutým trénováním, jeho data nepředáváme třetím stranám ani netrénují žádný model.
  • Kolega používá nevhodný nástroj — neřeš veřejně. Napiš mu 1:1, vysvětli riziko, navrhni alternativu.
  • Chci zkusit nový nástroj — napiš Janovi s odkazem na privacy policy. Rozhodneme spolu.
Telly AI Academy · interní zdroj Telly s.r.o. · inspirováno Future AI Leader