Якщо ви будуєте щось, люди спробують зламати це. Іноді навіть ті, хто щось будує, самі можуть це зламати. Така ситуація стосується і останнього дослідження, яке демонструє цікаву вразливість у поточній технології LLM. Більш-менш, якщо ви продовжуєте задавати питання, ви можете зламати бар’єри безпеки і отримати від великих мовних моделей відповіді на речі, для яких вони не призначені. Як, наприклад, як побудувати бомбу.
Звичайно, з урахуванням прогресу в технології відкритого вихідного коду штучного інтелекту, ви можете запустити свою власну LLM локально і просто запитати її про що завгодно, але для більш споживчої продукції це проблема, над якою варто задуматися. Цікаво в сучасному штучному інтелекті те, наскільки швидко він розвивається, і наскільки добре — або не дуже — ми, як вид, покращуємо наше розуміння того, що ми створюємо.
Якщо ви дозволите, я задамся питанням, чи побачимо ми більше питань і проблем такого типу, які описані вище, по мірі того, як LLM та інші нові типи моделей штучного інтелекту стають розумнішими і більшими. Що, можливо, повторює мої думки. Але чим ближче ми підходимо до більш загального штучного інтелекту, тим більше він має нагадувати мислячого істоту, а не комп’ютер, який ми можемо програмувати, чи не так? Якщо так, то ми можемо мати складніше завдання визначення граничних випадків до того моменту, коли ця робота стане недосяжною? У будь-якому випадку, давайте не будемо поспішати.