Perhaps we can draw an analogy from David and Goliath. Here, Goliath being the extreme-scale language models, and seek inspiration from an old-time classic, The Art of War, which tells us, in my interpretation, know your enemy, choose your battles, and innovate your weapons.
Let's start with the first, know your enemy, which means we need to evaluate AI with scrutiny. AI is passing the bar exam. Does that mean that AI is robust at common sense? You might assume so, but you never know.
So suppose I left five clothes to dry out in the sun, and it took them five hours to dry completely. How long would it take to dry 30 clothes? GPT-4, the newest, greatest AI system, says 30 hours. Not good.
A different one. I have a 12-liter jug and a 6-liter jug, and I want to measure 6 liters. How do I do it? Just use the 6-liter jug, right? GPT-4 spits out some very elaborate nonsense. Step one, fill the 6-liter jug. Step two, pour the water from 6- to 12-liter jug. Step three, fill the 6-liter jug again. Step four, very carefully pour the water from 6- to 12-liter jug. And finally, you have 6 liters of water in the 6-liter jug that should be empty by now.
OK, one more. Would I get a flat tire by bicycling over a bridge that is suspended over nails, screws and broken glass? Yes, highly likely, GPT-4 says. Presumably because it cannot correctly reason that if a bridge is suspended over the broken nails and broken glass, then the surface of the bridge doesn't touch these sharp objects directly.
OK, so how would you feel about an AI lawyer that aced the bar exam yet randomly fails at such basic common sense? AI today is unbelievably intelligent and then shockingly stupid. It is an unavoidable side effect of teaching AI through brute force scale.
Some scale optimists might say, don't worry about this, all of this can be easily fixed by adding similar examples as yet more training data for AI. But the real question is this. Why should we even do that? You are able to get the correct answers right away without having to train yourself with similar examples.
Нам нужно сделать ИИ меньше, чтобы демократизировать его, и надо сделать ИИ безопаснее, обучая человеческим нормам и ценностям.
Наверное, можно провести аналогию с Давидом и Голиафом. Здесь Голиаф — это модели языка большого масштаба, и мы можем черпать вдохновение из старой классики «Искусство войны», которое гласит, по моему толкованию: узнай своего врага, выбери свои битвы и инновационное оружие.
Начнем с первого — узнай своего врага, что означает: что нам нужно критически оценивать ИИ. ИИ сдал юридический экзамен. Это значит, что у ИИ есть здравый смысл? Вы могли бы предположить, что это так, но вы никогда не узнаете.
Допустим, я выставил 5 вещей высушить на солнце и им понадобилось 5 часов, чтобы высохнуть полностью. Сколько времени потребуется, чтобы высушить 30 вещей? GPT-4, новейшая и величайшая система ИИ, говорит 30 часов. Не хорошо.
Еще один пример. У меня есть кувшин на 12 литров и кувшин на 6 литров, и я хочу измерить 6 литров. Как я это делаю? Просто используйте кувшин на 6 литров — правильно? Но GPT-4 выдает какую-то очень сложную чушь. Шаг первый: наполните кувшин на 6 литров. Шаг второй: перелейте воду из 6-литрового кувшина в 12-литровый. Шаг третий: снова наполните 6-литровый кувшин. Шаг четвертый: очень осторожно перелейте воду из 6-литрового кувшина в 12-литровый. И наконец, у вас есть 6 литров воды в 6-литровом кувшине, который к этому времени должен быть пустым.
ОК, еще один вопрос. Получу ли я прокол шины, если буду ездить на велосипеде по мосту, который подвешен над гвоздями, винтами и разбитым стеклом? Да, очень вероятно — говорит GPT-4. Предположительно потому, что она не может правильно рассуждать о том, что если мост подвешен над разбитыми гвоздями и стеклом, то поверхность моста не касается этих острых предметов напрямую.
Итак, как бы вы отнеслись к юристу-ИИ, который отлично сдал юридический экзамен, но случайно допускает такие базовые ошибки в здравом смысле? Искусственный интеллект сегодня невероятно умный, а затем поразительно глупый. Это неизбежное побочное явление обучения ИИ с помощью грубой силы масштаба.
Некоторые оптимисты в плане масштаба могут сказать: не беспокойтесь об этом, все это можно легко исправить, добавив подобные примеры в качестве еще одних обучающих данных для ИИ. Но настоящий вопрос в следующем: зачем нам вообще это делать? Вы можете получить правильные ответы сразу, без необходимости обучаться на подобных примерах.
Exercise № 4 (7 min to complete. 24 out of 45)[14]
Watch the second part of the talk (02:57–05:48), complete the sentences with the following words: aced, presumably, suspended, nonsense, measure, jug, randomly.
A different one. I have a 12-liter jug and a 6-liter __, and I want to __ 6 liters. How do I do it? Just use the 6-liter jug, right? GPT-4 spits out some very elaborate ____. Step one, fill the 6-liter jug. Step two, pour the water from 6- to 12-liter jug. Step three, fill the 6-liter jug again. Step four, very carefully pour the water from 6- to 12-liter jug. And finally, you have 6 liters of water in the 6-liter jug that should be empty by now.
OK, one more. Would I get a flat tire by bicycling over a bridge that is __ over nails, screws and broken glass? Yes, highly likely, GPT-4 says. __ because it cannot correctly reason that if a bridge is suspended over the broken nails and broken glass, then the surface of the bridge doesn't touch these sharp objects directly.
OK, so how would you feel about an AI lawyer that __ the bar exam yet ____ fails at such basic common sense? AI today is unbelievably intelligent and then shockingly stupid. It is an unavoidable side effect of teaching AI through brute force scale.
Просмотрите вторую часть разговора (02:57–05:48), дополните предложения следующими словами: сдал, предположительно, висит, абсурд, измерять, кувшин, случайно.
Что-то другое. У меня есть кувшин на 12 литров и кувшин на 6 литров, и я хочу __ 6 литров. Как я это делаю? Просто используйте кувшин на 6 литров — верно? GPT-4 выдает какой-то очень замысловатый ____. Первый шаг: наполните кувшин на 6 литров. Второй шаг: перелейте воду из кувшина на 6 литров в кувшин на 12 литров. Третий шаг: снова наполните кувшин на 6 литров. Четвертый шаг: очень осторожно перелейте воду из кувшина на 6 литров в кувшин на 12 литров. И наконец, у вас есть 6 литров воды в кувшине на 6 литров, который к этому моменту должен быть пуст.
Хорошо, еще одно. Получу ли я спущенное колесо, если проеду на велосипеде по мосту, который __ над гвоздями, винтами и разбитым стеклом? Да, очень вероятно, говорит GPT-4. __, потому что он не может правильно рассуждать о том, что если мост висит над сломанными гвоздями и стеклом, то поверхность моста не касается этих острых объектов напрямую.
Ладно, как бы вы отнеслись к ИИ-адвокату, который __ экзамен на статус адвоката, но ____ терпит неудачу в таких основных вопросах здравого смысла? ИИ сегодня невероятно умен, а потом поразительно глуп. Это неизбежный побочный эффект обучения ИИ с помощью грубой силы масштаба.
Не упускаем из внимания важный культурный аспект, которому хотим научить: вынудить задуматься над тем, что такое здравый смысл. Для этого мы прекращаем слушать, даже если у нас еще осталась половина видео. Переносим вторую половину на следующий раз и переходим к части, где задаемся вопросами и ищем самостоятельно ответы. Записываем мысли и готовимся представить наше мнение. Бесспорно, критическому мышлению, по мнению профессора Виллингама, научить невозможно, но научить думать на каком-то материале вполне по силам каждому преподавателю.
Мы будем размышлять, что такое здравый смысл. Для этого сначала ответим самим себе, что это и почему машина допускает глупые ошибки, а потом прочтем один или несколько комментариев под видео и «подумаем» о них.
Exercise № 5 (4 min to complete. 28 out of 45)[16]
Judging by the answers given by an extremely intelligent machine to a shockingly simple questions — questions even a primary school pupil could manage — let’s work in pairs or small groups to discuss what it lacks. How do you define common sense? Do you possess it? Why or why not?
Оценивая ответы, данные экстремально умной машиной на поразительно простые вопросы — вопросы, с которыми справился бы ученик начальной школы, — давайте работать парами или небольшими группами для обсуждения того, чего ей не хватает. Как вы определяете здравый смысл? Обладаете ли вы им? Почему да или почему нет?
Следующим этапом мы попросим учеников выразить мнение по поводу короткого комментария, оставленного под этим видео.
Exercise № 6 (4 min to complete. 32 out of 45)[17]
Read the comment about the TED talk. Work in pairs or small groups. Do you agree with the viewer’s comment? Do you have anything to add?
I'm in love. This is so aligned with what I have learned to see from our past and current situation. The future situations are also clear. We are playing with potential dynamite using oven gloves and plastic googles, hoping that all goes well. The economic, and geopolitical motives for that are clear, but to what end. In the meantime, we need to ensure that we don't let the genie out of the bottle and I believe the team developing AI and the concerned governments are doing the right things to protect everyone. We all need to be aware however, so that we can all participate and help to mitigating the situation, and advancing at the same pace as we are. A fine balance, but one that can be done as we have more than enough smart people in the world.