Ningún chatbot debería ayudar a las personas a construir una bomba, pero las técnicas de jailbreaking pueden engañarlos para que vayan demasiado lejos.