#4 Mateusz Chrobok - jak obchodzić zabezpieczenia #AI i chronić aplikacje z sztuczną inteligencją
Czy potrafisz przechytrzyć AI? 🤖 Odkryj, jak eksperci obchodzą zabezpieczenia modeli LLM i jak możesz chronić przed tym swoje aplikacje na prodzie! 🚀 W najnowszym odcinku podcastu #BliskieSpotkaniazAI posłuchaj rozmowy z Mateuszem Chrobokiem, ekspertem od AI i #cybersecurity. Rozmawiamy o obchodzeniu zabezpieczeń modeli językowych (LLM jailbreaking) – jak działa, co oznacza dla bezpieczeństwa i jak sobie z tym radzić. Zastanawiasz się, jak chronić swoje systemy, gdy AI wchodzi do gry? Odkryj skuteczne strategie i przygotuj się na przyszłość! 🎧 Oglądaj na YouTube: https://www.youtube.com/watch?v=AWC6c-fOcFE ⭐️ Zobacz też: - Agenty AI - Klucz do automatyzacji programowania https://www.youtube.com/watch?v=tOPKf9XiVXo - Concierge AI – Czy hotelowi specjaliści stracą pracę? https://www.youtube.com/watch?v=IKzigMVtz8g - Data Science - uzyskaj przewagę w biznesie dzięki danym https://www.youtube.com/watch?v=cXd7PqzvxDs Linki do kontaktu z Mateuszem oraz materiały omawiane w odcinku: 🔗 Kontakt: 👉 Strona: https://chrobok.eu/ 👉 LinkedIn: https://www.linkedin.com/in/mateuszchrobok/ 👉 Instagram: https://instagram.com/mateuszemsi 👉 X: https://x.com/mateuszchrobok 👉 Kanał na YouTube: https://www.youtube.com/@MateuszChrobok 👉 Podcast: https://podcasters.spotify.com/pod/show/mateusz-chrobok 👉 Kurs bezpiecznej komunikacji: https://uczmnie.pl/ 👉 Kurs AI_devs - programuj autonomicznych agentów i narzędzia GenAI: https://www.aidevs.pl?ref=r2132 📚 Materiały omawiane w odcinku: 👉 "DAN" and other Jailbreaks: https://gist.github.com/coolaj86/6f4f7b30129b0251f61fa7baaa881516 👉 Automatic Jailbreaking of the Text-to-Image Generative AI Systems: https://arxiv.org/abs/2405.16567 👉 ArtPrompt: ASCII Art-based Jailbreak Attacks against Aligned LLMs: https://arxiv.org/html/2402.11753v2 📖 Polecane książki: 👉 Pułapki myślenia. O myśleniu szybkim i wolnym - Daniel Kahneman: https://lubimyczytac.pl/ksiazka/5103227/pulapki-myslenia-o-mysleniu-szybkim-i-wolnym 👉 Inteligencja emocjonalna - Daniel Goleman: https://lubimyczytac.pl/ksiazka/15115/inteligencja-emocjonalna 👉 Sztuka podstępu. Łamałem ludzi, nie hasła - Kevin Mitnick, William L. Simon: https://lubimyczytac.pl/ksiazka/4302680/sztuka-podstepu-lamalem-ludzi-nie-hasla 👥 Polecane osoby: 👉 Andrej Karpathy - https://x.com/karpathy 👉 Elon Musk - https://x.com/elonmusk 👉 George Hotz, alias geohot Rozdziały: 00:00 - Dziś w odcinku 01:35 - Wprowadzenie 02:11 - Mateusz Chrobok 09:31 - Jailbreaking AI – zagrożenia i przykłady 11:41 - Techniki jailbrekowania modeli AI 15:11 - Rola multimodalności i nowe techniki Jailbreaking 22:59 - Time to jailbreak 25:46 - Alignment w modelach AI – czym jest? 28:50 - Konsekwencje alignmentu i fake alignment 33:07 - Zabezpieczanie aplikacji przed jailbreakingiem i atakami w środowisku produkcyjnym 35:37 - Monitoring i narzędzia do ochrony LLM-ów 42:40 - Przyszłe prognozy jailbreakingu modeli LLM 45:15 - Inspiracje i wpływ literatury oraz osób na Mateusza 52:35 - Zakończenie #BliskieSpotkaniazAI #Podcast #AI #Ai_devs #GPT #ChatGPT #LLM #AiAgents #JailbreakiTekstowe #CzasNaJailbreak #JailbreakMultimodalne #Chainy #AutomatyDoJailbreaku #OptymalizacjaCelów #UważajCzegoChcesz #EmergencjeEmoji #ZakazaneMiejsca #TextualJailbreaks #TimeToJailbreak #MultimodalJailbreaks #Chains #JailbreakMachines #GoalOptimization #AlignmentProblem #CarefulWhatYouWishFor #EmojiEmergences #ForbiddenPlaces #SztucznaInteligencja #SI