Розробка уроку

Тема: поняття про штучний інтелект.

Мета: сформувати поняття про штучний інтелект та сфери його застосування у сучасному світі.

Обладнання: дошка, комп’ютери з підключенням до мережі Інтернет, браузер, Delphy.

Структура уроку:

  1. Організаційний момент
  2. Актуалізація опорних знань
  3. Пояснення нового матеріалу
  4. Закріплення вивченого матеріалу
  5. Підбиття підсумків уроку
  6. Домашнє завдання

Хід уроку

1. Організаційний момент
Вітання з класом. Перевірка присутності і готовності учнів до уроку. Перевірка виконання домашнього завдання.

2. Актуалізація опорних знань

  1. Які онлайн-інструменти планування діяльності ви знаєте?
  2. Назвіть переваги використання онлайн-органайзеров на сматрфонах?
  3. Які комп’ютерно-орієнтовані засоби навчання використовують у вашій школі?
  4. Наведіть приклади використання довільного онлайн-календаря.
  5. Чи допомагали вам підказки пошукових систем, під час введення пошукового запиту?

3. Пояснення нового матеріалу

Ідея штучного інтелекту (ШІ) настільки тривалий час бентежила людство, що вже можна говорити про історію розвитку цього поняття та способів його втілення (див., напрклад, джерела 1 або 2). Алан Тьюринг (Alan Turing) уперше висловив повне уявлення про штучний інтелект у своїй статті «Обчислювальні машини й розум», яку було опубліковано в 1950 році. У цій статті описано принципи машинного навчання, генетичні алгоритми, навчання з закріпленням і наступне поняття.

Тест Тюрінга. Cтандартний опис цього тесту звучить таким чином: «Суддя взаємодіє з одним комп'ютером і однією людиною. На підставі відповідей на питання суддя повинен визначити, з ким він розмовляє: з людиною чи з комп'ютерною програмою. Завдання комп'ютерної програми — ввести суддю в оману, змусивши зробити неправильний вибір».

Всі учасники тесту не бачать один одного. Якщо суддя не може сказати точно, хто зі співрозмовників є людиною, то вважають, що машина пройшла тест. Щоб протестувати саме інтелект машини, а не її можливість розпізнавати усне мовлення, бесіду ведуть в режимі «лише текст». Наприклад, за допомогою клавіатури і екрану (комп'ютера-посередника). Листування має проводитися через контрольовані проміжки часу, щоб суддя не міг робити висновки, виходячи зі швидкості відповідей. За часів Тюрінга комп'ютери реагували повільніше за людину. Зараз це правило теж необхідне, тому що вони реагують набагато швидше, ніж людина.

Ми обмежимося розглядом ідеї нейромережі, яка є основою для сучасного втілення ШІ. Вважають, що першою роботою щодо цього була стаття Уоррена Мак-Каллока і Уолтера Піттса (McCalloch W.S., Pitts W.) "Логічне числення ідей щодо нервової активності", опублікована в 1943 році. У статті запропоновано модель сукупності штучних нейронів, в якій кожен нейрон може перебувати в одному з двох станів: ввімкненому або вимкненому, а перехід у ввімкнений стан відбувався у відповідь на стимуляцію достатньої кількості сусідніх нейронів.

Позначимо через: Вважатимемо:

Таким чином, нейрон описують за допомогою функції: $$ f(x) = H\left( \sum\limits_{j=1}^n ω_j x_j - ω_0\right),$$ де $$ H(x)=\cases{0,\quad x<0\cr 1,\quad x\geq 0}$$ — функція Гевісайда.

В теорії нейронних мереж функцію f, що описує перетворення значення сумарного імпульсу у вихідне значення нейрона, зазвичай називають функцією активації. У роботах Мак-Каллока і Піттса показано, що будь-яку обчислювану функцію можна обчислити за допомогою деякої мережі зі сполучених нейронів і що всі логічні зв'язки (логічні «І», «АБО», «НЕ» тощо) можна втілити за допомогою простих мережевих структур. Крім того, Мак-Каллок і Піттс висунули припущення, що мережі, структуровані відповіднім чином, здатні до навчання.

На малюнку нижче кожним круговим вузлом представлено штучний нейрон, а стрілкою — сполучення виходу одного штучного нейрону зі входом іншого. Кольорами позначено:

Штучна нейронна мережа (ШНМ, англійською artificial neural network, ANN), або конективістська система (англійською connectionist system) — це обчислювальна система, будова якої аналогічна біологічній нейронній мережі.

Штучна нейронна мережа містить сукупність з'єднаних вузлів, які називають штучними нейронами (аналогічно до клітиин головного мозку тварин). Кожне з'єднання (аналог синапсу) між штучними нейронами може передавати сигнал від одного до іншого. Штучний нейрон, що отримує сигнал, може опрацьовувати його, й потім сигналізувати штучним іншим нейронам, приєднаним до нього.

Така система навчається розв'язуванню задач, покращуючи свою результативність на них і розглядаючи приклади, загалом без спеціального програмування під задачу. Наприклад, у розпізнаванні зображень може навчатися ідентифікувати зображення, які містять котів, аналізуючи приклади зображень, помічені як «кіт» або «не кіт», і використовуючи результати для ідентифікування котів в інших зображеннях. Це робиться без жодного початкового (апріорного) знання про котів, наприклад, що ті мають хутро, хвости, вуса. Натомість, вони розвивають свій власний набір доречних характеристик з навчального матеріалу, який вони опрацьовують.

У поширених втіленнях штучних нейронних мереж сигнал між штучними нейронами можна подати не цілим, а лише дійсним числом, а вихід кожного штучного нейрону вихначається нелінійною функцією зваженої суми його входів. Причому ваги буде підлаштовано під час навчання. Штучні нейрони зазвичай організовано в шари. Різні шари можуть виконувати різні види перетворень своїх входів. Сигнали проходять від першого до останнього шару, можливо, після проходження кількома прихованими проміжними шарами.

Первинною метою створення таких мереж було розв'язання задач таким самим способом, як це робив би людський мозок. З часом увага зосередилася на відповідності певним розумовим здібностям, ведучи до відхилень від біології, наприклад, у задачах про:

Біологічний прототип нейромережі — систему зору. Зображення потрапляє на сітківку ока, сигнали про нього проходить низку зорових зон на шляху до скроневої зони. Перша зорова зона була досліджена Девідом Хьюбелом (David Hubel) і Торстеном Візелем (Wiesel) в 1962 році. Вони проводили експерименти на кішках, яким показували різні рухомі об'єкти. Під час експерименту реєстрували електричну активність певної частини мозку при різних розташуваннях об'єкта.



Навіть зараз багато експериментів проводять таким чином. Цим способом були відкрито багато важливих властивостей зорових зон, які використовують у нейромережах (deep learning) зараз. Одна з найважливіших властивостей — це збільшення рецептивних полів у міру просування від первинних зорових зон до скроневих частин.

Рецептивне полеце та частина зображення, яку обробляє клітинка мозку.

Властивості системи зору, перенесені в нейронні мережі:

Перцептро́н, персептро́н (англійською perceptron від латинського perceptio — сприйняття; німецькою perzeptron) — математична або комп'ютерна модель сприйняття даних мозком, запропонована Френком Розенблатом у 1957 році й втілена у вигляді електронної машини «Марк-1» у 1960 році.

Перцептрон став однією з перших моделей нейромереж, а «Марк-1» — першим у світі нейрокомп'ютером. Незважаючи на свою простоту, перцептрон здатен навчатися й розв'язувати досить складні завдання.

Перцептрон складається з трьох типів елементів: рецепторів, асоціативних і реагуючих елементів, що утворюють відповідно шари входу, прихований шар і шар виходу.

Відповідно до сучасної термінології перцептрон можна класифікувати як штучну нейронну мережу:

Найпростіший перцептрон здатний виконувати лише найпростіші операції. Для того, щоб виконувати складніші обчислення, потрібно використати структуру з великою кількістю прихованих шарів.

Пояснимо на прикладі розпізнавання обличчя, що відбувається при розпізнаванні зображення. Для людини подивитися на картинку і сказати, що на ній зображено саме обличчя, досить просто. Однак до 2010 року для комп'ютерного зору це було неймовірно складним завданням. Ті, хто займався цим питанням до цього часу, напевно, знають наскільки важко було описати об'єкт, який потрібно виявити на зображенні. Потрібно було описати об'єкт, описати взаємозв'язки частин об'єкта, потім виявити все це на зображення й порівняти з очікуваним. Зазвичай результативність була трохи кращою, ніж при визначенні сторони монети при випадковому підкиданні.

Зараз все відбувається по іншому. Вхідне зображення X розбивають на квадрати розміром n×n пікселів, де n обирають творці системи. Ці квадрати служать сигналами у вхідний шар нейронної мережі. Сигнали передають від шару до шару з певними вагами W, поки не отримають результат. Набір ваг W визначають підбором за набором прикладів (лейблів) Y таким чином, щоб максимально зменшити помилку. Як нас в дитинстві вчать: «Це кішка, а це собака» на прикладах різних порід (наживо, світлини, малюнки), так само нейронні мережі навчають на великій кількості прикладів.

Головні методи створення систем штучного інтелекту

У гібридних інтелектуальних системах намагаються об'єднати ці напрямки. Експертні правила висновків можуть породжувати нейронними мережами, а побіжні правила отримувати за допомогою статистичного вивчення.

Архітектура нейронної мережі. Наявні наразі нейромережі є сукупністю штучних нейронів, об'єднаних у шари. Хоча існують мережі, які містять лише один шар або навіть один елемент, більшість застосувань вимагають мережі, які містять як мінімум три шари — вхідний, прихований та вихідний. Шар вхідних нейронів отримує дані або з вхідних файлів, або безпосередньо з рецепторів. Вихідний шар пересилає інформацію до зовнішнього середовища, до вторинного комп'ютерного процесу або до інших пристроїв. Між цими двома шарами може бути багато прихованих шарів, які містять багато нейронів у різноманітних зв'язаних структурах.

Напрямок передавання сигналів від одного нейрону до іншого є істотною складовою структури нейромережі. У більшості мереж кожен нейрон прихованого шару отримує сигнали від всіх нейронів попереднього шару та від нейронів вхідного шару. Після опрацювання сигналів нейрон передає свій вихід до всіх нейронів наступних шарів. Багатошарові нейронні мережі можна поділити на:

Навчання нейронної мережі можна розглядати як удосконалення архітектури мережі й налаштування ваг зв'язків для ефективнішого виконання певних завдань.

Властивість мережі навчатися на прикладах робить їх привабливішою у порівнянні із системою, що діє згідно з непорушною системою правил, сформульованою експертами.

Для навчання нейронної мережі необхідно мати:

Три загальні парадигми навчання:

Ефективність навчання нейромережі залежить від того, які вхідні дані надають програмі. Наприклад, чат-бот від Microsoft на якийсь час вийшов з-під контролю, почавши обговорювати з одним з користувачів те, що не повинен був — релігію і політику, і назвав Коран жорстоким. Причина такого збою криється у тому, що бот постійно розвиває свою «особистість», черпаючи дані для цього з розмов, які з ним ведуть люди у мережі. А теми про жорстокість висловлювань Корану досить часто піднімали у чатах. Висновок: нейромережі можна навчити як «хорошим» так і «поганим» речам.

Бот (англійською bot, скорочено від англійського robot) — спеціальна програма, що виконує автоматично і/або за заданим розкладом які-небудь дії через ті самі інтерфейси, що й звичайний користувач. Зазвичай боти призначають для виконання роботи, одноманітної й повторюваної, з максимально можливою швидкістю. Про організацію роботи з ботами можна дізнатися за матеріалами сайту robotstxt.org.

Перцептрон Розенблата у початковому виконанні складався з фотоелементів, які, залежно від поданого на них сигналу виробляли сигнал логічної одиниці, або логічного нуля. Сигнали з фотоелементів надходили на зважений суматор (мініпроцесор, штучний нейрон) з пороговою функцією активації. Нейрон також видавав сигнал логічного нуля, або логічної одиниці. Мета навчання перцептрона полягала в тому, щоб при подачі на фотоелементи закодованого образу на його виході з'являлася логічна одиниця в разі належності поданого образу до заздалегідь певного класу і нуль в іншому випадку. Логіка навчання така: якщо сигнал перцептрона при деякому образі вірний, то нічого коригувати не потрібно, якщо немає — проводиться коригування ваги суматора.

Правило коригування ваг запропоновав Хебб у 1949 році (Hebb DO — The Organization of Behavior. John Wiley & Sons, New York, 1949): «Якщо аксон клітини А знаходиться досить близько, щоб збуджувати клітку B, і неодноразово або постійно бере участь в її збудженні, то спостерігається певний процес росту або метаболічних змін в одній або обох клітинах, що веде до збільшення ефективності А, як однієї з збудливих клітин В». З цього помилково (з точки зору формальної логіки) вивели такі правила.

Правила застосовують послідовно для всіх образів, на яких здійснюється навчання. На питання про те, чи прийде перцептрон до стійкого стану, коли він буде коректно класифікувати всі вхідні образи відповідає теорема збіжності перцептрона.

Теорема збіжності перцептронa — це теорема, описана і доведена Френком Розенблаттом (за участю Блока, Джозефа, Кестена та інших дослідників, що працювали разом з ним). Вона показує, що елементарний перцептрон, що навчається за методом корекції помилки (незалежно від того з квантуванням або без нього), а також незалежно від початкового стану вагових коефіцієнтів, послідовності появи стимулів — завжди приведе до досягнення вирішення за скінченний проміжок часу. Ф. Розенблатт також довів низку допоміжних теорем, наслідки яких говорять про умови та архітектуру нейронної мережі та методи навчання для успішного виконання поставленої задачі.

Дельта-правиломатематична й загальніша форма запису правил Хебба.
Нехай вектор X = (x1, x2, ..., xm) — вектор вхідних сигналів, а вектор D = (d1, d2, ..., dn) — вектор сигналів, які мають бути отримані від перцептрона під впливом вхідного вектора (правильний відгук). Тут n — кількість нейронів, що входять до перцептрону. Вхідні сигнали, поступивши на входи перцептрону, були зважені і підсумовані, в результаті чого отримано вектор Y = (y1, y2, ..., yn) вихідних значень перцептрона. Тоді можна визначити вектор помилки E = (e1, e2, ..., en), розмірність якого збігається розмірністю вектор вихідних сигналів. Компоненти вектора помилок визначають як різницю між очікуваним і реальним значенням вихідного сигналу нейрону перцептрона:

E = D – Y.

При таких позначеннях формулу для коригування j-ої ваги i-го нейрона можна записати так:

wj (t + 1) = wj (t) + ei xj.

Тут номер сигналу j змінюється у межах від 1 до m, номер нейрону i змінюється у межах від 1 до n. Величина t є номером поточної ітерації навчання. Таким чином, вага вхідного сигналу нейрона змінюється у бік зменшення помилки пропорційно величині сумарної помилки нейрона. Часто запроваджують коефіцієнт пропорційності η для такої формули коректування ваг зв'язків перцептрону:

wj (t + 1) = wj (t) + η ei xj.

Перелік правил навчання, до яких належать описані вище правила Хебба і дельта-правило, постійно доповнюють новими правилами. Інколи модифікуючи вже наявні. Ми обмежилися лише описаними вище.

Для кращого розуміння ідеї навчання виконаємо наступне завдання.

Завдання 1. Cтворити програму з моделюванням штучних нейронів для розпізнавання трьох літер на растрових зображеннях розміру 30×30 пікселів. На початку виконання програми система буде мати «хаотичну» пам'ять, заповнену "білим шумом"" — випадковими числами з проміжку [0;1/900]. Для простоти втілення сукупність нейронів проміжного шару моделювати 3-вимірним масивом:

Вказівки для виконання у середовищі Lazarus
При використанні інших мов програмування й інших середовищ користуватися вказівками лише як орієнтиром, здійснюючи переклад з однієї мови програмування іншою.

  1. Завантажити і розпакувати архів, що у розпакованому вигляді має таку структуру.

  2. У середовищі Lazarus закрити поточний проект, використавши вказівку меню Проект / Закрити проект.

  3. У вікні діалогу Майстер проектів вибрати Новий проект.

  4. У вікні діалогу Створити новий проект вибрати Проста програма і клацнути мишею на кнопці з написом OK.

  5. Отримати вікно вбудованого редактора текстів

    з такими трьома рядками коду програми:

    program Project1;
    begin
    end.

  6. Приєднати до проекту пакунки, необхідні для опрацювання зображень:

    • використати вказівку меню Проект / Інспектор проекту... ;

    • у вікні діалогу Інспектор проекту клацнути правою кнопкою миші на написі Необхідні пакунки й у контекстному мені вибрати Додати...;

    • у вікні діалогу Нова вимога вказати потрібний пакунок LCL і клацнути кнопкою миші на кнопці з написом OK.

  7. Створити код програми, що міститиме такі складові.

    1. Опис використаних модулів, сталих і змінних.
    2. Опис функції, що перетвоює колір у число 0 або 1.
    3. Заповнення початкових значень w випадковими числами з [0,1).
    4. Навчання на основі багатократного опрацювання наявних файлів згідно з дельта-правилом для отримання вихідного сигналу близького до:
      • 0, якщо зображення не є таким, на яке нейрон повинен створювати сигнал 1;
      • 1, якщо зображення є таким, на яке нейрон повинен створювати сигнал 1;
    5. Розпізнавання зображень:
      • знаходження еталону з найменшим відхиленням;
      • запис результатів розпізнавання у файл output.txt у форматі:
        номер файлу (для розпізнавання) — символ еталону — модуль відхилення від очікуваного результату.

    Складові 1-2 скопіювати у місце безпосередньо після заголовку програми з такого тексту.

    // 1. Опис використаних модулів, сталих і змінних
    uses  Graphics, Interfaces;
    const n = 2;                // кількість типів еталонних зображень (літер)
          m = 29;               // розмір зображень по вертикалі й горизонталі, зменшений на 1
         s0 = '/home/chief/0/'; // тека тек файлів з еталонними зображеннями для навчання
         s1 = '/home/chief/1/'; // тека файлів із зображеннями для розпізнавання
         t0 : array[0..n] of string  = ('А','Б','В'); // символи й назви тек з еталонними зображеннями
         n0 : array[0..n] of integer = ( 0 , 0 , 0 ); // кількості файлів з еталонними зображеннями без 1
         n1 = 2;     // кількість файлів для розпізнавання без 1
         nk = 10;    // кількість ітерацій навчання
        eta = 0.001; // коефіцієнт пропорційності η
    
    var w: array[0..n,0..m,0..m] of real; // результат навчання за всіма нейронами
      img: array     [0..m,0..m] of byte; // результат розпізнавання
        x,           // номер стовпчика пікселів у файлі зображення
        y,           // номер   рядка   пікселів у файлі зображення
        i,           // номер еталонного зображення
        j,           // номер зображення для розпізнавання
        l,           // номер штучного нейрону
     imin : byte;    // номер штучного нейрону з найменшим відхиленням від
        k : word;    // номер ітерації
        E,           // значення помилки
        r,           // відгук штучного нейрона
     rmin : real;    // відгук штучного нейрона з найменшим відхиленням від номера нейрона
        o : text;    // файлова змінна для вихідного файлу
        p : TBitmap; // поточне зображення
        s : string;  // назва файлу, що містить № файлу із зображенням для розпізнавання
    
     // 2. Опис функції, що перетвоює колір у число 0 або 1
    function f (c: TColor): shortint;
    var r, g, b: byte;   color: $0..$FFFFFFFF;
    begin
      color := ColorToRGB(c);
                // інтенсивності кольорів моделі RGB:
      r := ($000000FF and Color);        // червоного
      g := ($0000FF00 and Color) Shr 8;  // зеленого
      b := ($00FF0000 and Color) Shr 16; // блакитного
      if (r+g+b > 381) then f:=0
                       else f:=1;
    end;

    Значення сталих s0, s1 мають відповідати місцю розпакування архіву.

    Програмування складових 3-5 вимагає використання таких елементів мови програмування:

    • p:=TBitmap.Create — cтворення об'єкту зображення:
    • p.LoadFromFile(s) — завантаження в об'єкт типу TBitmap зображення з файлу s:
    • p.Canvas.Pixels[x,y] — колір (тип TColor) пікселя з координатами x, y зображення р.

    У разі потреби переглянути відповідні частини код демонстраційного розв'язання.

  8. Скомпілювати програму, натиснувши клавіші Ctrl + F9 або використавши вказівку меню Виконання / Компілювати. У раза потреби внести зміни у код.

  9. Виконати програму, натиснувши клавішу F9 або використавши вказівку меню Виконання / Виконати. У раза потреби внести зміни у код. Отримати відповідь, схожу на таке.

    0  В  3.4163199795693344E-001
    1  А  1.5681002628150542E-001
    2  Б  5.0689398489352500E-001
  10. Пересвідчитися, що занадто велике значення коефіцієнта пропорційності η призводить "розвалу" системи й хибного результату. Наприклад, змінивши у програмі значення η (стала eta) на 0.1, отримати щось схоже на таке (важливим є лише порядок).

    0  В  1.0136967570839834E+028
    1  В  3.1034887048986214E+027
    2  В  8.8627703352124913E+027
  11. Пересвідчитися, що вибором достатньо великої кількості ітерацій і достатньо великої малого значення коефіцієнта пропорційності η можна отримати істотно малі значення відхилення. Наприклад, при

     nk = 20000;  // кількість ітерацій навчання
    eta = 0.0001; // коефіцієнт пропорційності η
    
    автор демонстраційного розв'язання через кілька годин роботи комп'ютера отримав таке виведення.

    0  В  1.6431300764452317E-014
    1  А  2.5535129566378600E-015
    2  Б  1.8873791418627661E-014
  12. Зберегти програму у файлі з назвою Ваше прізвище у вказаній вчителем теці.
  13. Повідомити вчителя про завершення роботи.

Завдання 2. Перелічити напрямки удосконалення моделі та її програмного втілення й порівняти з очікуваним.

  1. Створення інтерфейсу (задання адрес тек, автоматичне визначення кількостей еталонів, визначення файлів зображень для розпізнавання, задання виведення результату.

  2. Збільшення кількості файлів для навчання і розпізнавання — і літер, і написання, і напованення, але одного розміру й розташування на прямокутнику.

  3. Перетворення зображень для аналізу — паралельне перенесення, поворот і гомотетія (розтяг) з метою отримати зображення, максимально схоже на еталон.

  4. Втілення кожного штучного нейрона окремим мікропроцесором для паралельного опрацювання зображень — поки не для практичного втілення у школі.

  5. Розбиття зображень на контури й аналіз їхнього поєднання (топологічної моделі).

Штучний інтелект (англійською Artificial intelligence) — наука (розділ математичної лінгвістики та комп’ютерних наук) та набір технологій, які дозволяють комп’ютеру виконувати різні функції, притаманні людині набагато швидше та з більшою точністю. Простими словами штучний інтелект — це широка галузь комп'ютерних наук, які спрямовані на імітацію інтелекту людини машинами.

Термін "штучний інтелект" ще 1956 році запровадив професор Дартмутського коледжу Джон МакКарті, коли очолив невелику команду вчених, аби визначити, чи можуть машини вчитися, як діти, методом спроб та помилок, врешті розвинувши формальне мислення. Фактично проект базувався на намірі з'ясувати, як змусити машини використовувати мову, абстрактні форми, вирішувати ті проблеми, які зазвичай вирішують люди, та вдосконалюватись.

Категорії штучного інтелекту

Причини попиту на штучний інтелект

Штучний інтелект і користувачі. Технології штучного інтелекту захоплюють уяву громадськості протягом десятиліть, але багато людей не розуміють, що вони використовують їх кожного дня.

Машини, як і люди, зберігають у пам'яті інформацію і з часом стають "розумнішими". Але на відміну від нас, їм не знайомі такі речі, як короткочасна втрата пам'яті, перевантаження інформацією, розлад сну чи неуважність. Ще 1959 року дослідник Артур Семюель визначив машинне навчання як "галузь досліджень, яка дає комп'ютерам здатність навчатися без того, щоб їх явно програмували". Під час машинного навчання програми аналізують тисячі прикладів, аби написати алгоритм. Потім налаштування алгоритму змінюється, в залежності від того, чи досягнуто поставлених цілей, і з часом програма дійсно прогресує.

Саме так машини, на кшталт суперкомп'ютера IBM Watson можуть діагностувати рак, складати симфонії, конкуручи з людиною.

Прикладом нейромережі та машинного навчання може слугувати сайт ostagram.me, де завантаживши два зображення (одне основне, друге — як приклад оформлення) можна отримати несподівані витвори від штучного інтелекту.





Чи не позбавить ШІ людство роботи? Багато людей негативно ставиться до прогресу штучного інтелекту через острах, що врешті машини позбавлять людей високо кваліфікованої (читай високо оплачуваної) роботи. ШІ напевне замінить мільйони людей. Але натомість з'являться нові посади, що вимагатимуть вищої кваліфікації і супроводжуватимуться вищою оплатою. Наприклад, для налаштування роботи того самого штучного інтелекту. Проблему не у штучному інтелекті, а у здатності суспільства так вибудовувати економічну політику, що науково-технічний прогрес збільшував добробут усіх членів суспільства.

4. Закріплення вивченого матеріалу

  1. Що таке штучний інтелект?
  2. Назвіть приклади використання штучного інтелекту?
  3. Як штучний інтелект пов'язаний із комп'ютерною технікою?
  4. Чи містить штучний інтелект загрозу людству?
  5. Як штучний інтелект використовують у сучасних смартфонах?

5. Підбиття підсумків уроку
Виставлення оцінок.

6. Домашнє завдання

  1. Робота у групах: втілити напрямки удосконалення 1-3 демонстраційного розв'язання завдання 2.

  2. Ознайомитися з відеозаписом майстер-класу «Як ChatGPT може асистувати під час створення навчальної програми або освітньої траєкторії» від Олександри Тиркалової, 20 червня 2023 року

  3. Ознайомитися із зауваженнями щодо використання штучного інтелекту у доповіді Олександра Рудика "Якість освіти й міфи освітян" (див. сторінку 4)


Текст упорядкував Дмитро Олександрович Олексієвець, вчитель cпеціалізованої школи І-ІІІ ступенів № 91 з поглибленим вивченням інформатики Шевченківського району міста Києва, на курсах підвищення кваліфікації з 29.10.2018 по 02.11.2018. Демонстраційне розв'язання завдання 1 й умову завдання 2 подав Олександр Рудик.