Филозофскиот факултет стана првата високообразовна установа во Македонија што воспостави сопствен AI екосистем со сопствена AI инфраструктура

Филозофскиот факултет – Скопје го направи првиот чекор во иднината на високото образование во Македонија!

Со задоволство Ве известувам дека денес, 11 февруари 2026 година, официјално се заокружи процесот на креирање на AI инфраструктурата на Филозофскиот факултет – Скопје!

🔗 Платформата е јавно достапна на: https://aifzf.org/

Со ова, Филозофскиот факултет стана првата високообразовна установа во Македонија што воспостави сопствен AI екосистем со сопствена AI инфраструктура — наменет за поддршка на наставата, учењето и истражувањето во општествените и хуманистичките науки.

🔹 Што нуди платформата?

Порталот е структуриран како целосна академска AI средина со повеќе сегменти: AI Училници, AI Академија, AI Истражување, AI за пишување и општо-наменскиот агент FZF GPT — сè со цел практична поддршка за студентите и наставниот кадар.

🔹 AI Училници — секој институт со свој AI агент

Во рамките на AI Училниците, секој институт доби своја платформа со сопствен AI агент, поставен да ја поддржи наставата и студентската работа во конкретната дисциплина.

🔹 Предметни AI агенти — отворена можност за секој предмет

Инфраструктурата отвора можност секој предмет во рамки на студиските програми да развие посебен, предметно-насочен AI агент — прецизно адаптиран кон наставните содржини, методологијата и очекуваните исходи од учење.

Ова не е само технолошки проект — ова е нов модел на тоа како хуманистичките и општествените науки можат да го интегрираат AI во своето академско ткиво, одговорно и систематски.

🔗 aifzf.org — иднината на академската работа започнува тука.

#AI #ВештачкаИнтелигенција #ФилозофскиФакултет #УКИМ #Образование #Иновации #AIвоОбразование #Македонија #aifzf

AI vs. Автоматизација — битката што индустријата не сака да ја разјасни

Постои една тивка, но длабоко вкоренета конфузија која го обликува начинот на кој јавноста — а нериретко и самата технолошка индустрија — зборува за вештачката интелигенција. Секогаш кога некој софтвер автоматизира задача што претходно ја извршувал човек, рефлексот е речиси автоматски: тоа е АИ. Чет-ботот што одговара на прашања од однапред дефинирана скрипта, алгоритамот што сортира е-пошта според клучни зборови, системот за наплата што препознава баркод — сето тоа, во популарниот имагинариум, станува „вештачка интелигенција”. Но она што навистина се случува во огромното мнозинство од овие случаи е нешто далеку поедноставно и поскромно: алгоритамска автоматизација, односно извршување на однапред дефинирани правила со брзина и конзистентност недостижни за човечката рака, но без ниту грам од она што би можело да се нарече разбирање, адаптација или генерализација.

Коренот на оваа замена лежи делумно во самиот маркетинг. Терминот „АИ” продава — тој евоцира иднина, моќ, софистицираност. Компанија која го опишува својот производ како „автоматизиран процес базиран на условни правила” звучи далеку помалку импресивно од онаа која тврди дека користи „АИ-решение”. Оваа инфлација на терминот не е невина: таа создава нереалистични очекувања, замаглува вистинските пробиви во машинското учење и длабокото учење, и — можеби најважно — го отежнува критичкото разбирање на тоа што технологијата навистина може, а што не може да направи. Кога сè е АИ, ништо не е АИ во значајна смисла.

Разликата, сепак, не е само семантичка — таа е суштинска. Алгоритамската автоматизација следи фиксна логика: „ако X, тогаш Y”. Таа е детерминистичка, предвидлива и целосно зависна од правилата што програмерот ги вградил. Вештачката интелигенција во потесна, технички прецизна смисла — особено машинското учење — подразбира систем кој учи од податоци, препознава обрасци што не биле експлицитно програмирани и генерализира на нови, непознати ситуации. Кога GPT генерира текст или кога модел за компјутерска визија препознава тумор на рентгенска снимка, тоа не е следење на скрипта — тоа е статистичка инференција врз основа на милијарди параметри обучени на огромни корпуси на податоци. Разликата е аналогна на онаа меѓу калкулатор и ум: калкулаторот пресметува побрзо од секој човек, но никогаш нема да постави прашање што не му било зададено.

Зошто оваа дистинкција е важна за секој од нас, не само за инженерите? Затоа што начинот на кој ја именуваме технологијата го обликува начинот на кој се однесуваме кон неа. Ако веруваме дека едноставен чет-бот со дрво на одлуки е „интелигентен”, ќе му веруваме повеќе отколку што заслужува. Ако мислиме дека секоја автоматизација е АИ, ќе ги пропуштиме вистинските прашања — за пристрасноста во моделите, за непроѕирноста на невронските мрежи, за етиката на автономното одлучување — кои се релевантни токму таму каде навистина постои интелигенција, макар и вештачка. Прецизноста во јазикот не е педантерија; таа е предуслов за одговорна мисла во свет каде технологијата сè повеќе ги обликува рамките на нашето секојдневие.

Од gender mainstreaming до извршливи норми: зошто „кодните снипети“ се инфраструктура, а не козметика

Кога зборуваме за интеграција на родовата перспектива (gender mainstreaming) во разговорни AI системи, најчестата интуиција е дека станува збор за „пристоен јазик“, „инклузивен тон“ или подобро prompt-engineer рамкирање. Но овој аргумент оди подлабоко: во чет-ботови што произведуваат значења во реално време, родовата перспектива не може да се третира како стилска надградба, туку како социо-техничка и институционално управувана практика што мора да има механизам на извршување — во самиот разговорен pipeline.

Токму тука влегува клучниот поим: коден снипет — не како „краток дел од код“, туку како управувана контролна единица преку која нормата станува извршлива, проверлива и ревидирачка. Наместо политиката да остане декларација, снипетот ја прави лоцирана во системот, со сопственост, верзии и тестирање: тоа е предуслов за институционална отчетност.

Зошто „неутралноста“ не е доволна

Разговорните AI системи не се само алатки што испорачуваат информации. Тие се инфраструктури што произведуваат авторитет и „нормалност“: категориите лесно се претвораат во објаснување, објаснувањето во совет, а советот во норма. Оттука, „родово неутрален“ одговор може да остане проблематичен не затоа што е навредлив, туку затоа што акумулативно репродуцира микро-нееднаквости: генерализации, бинарни претпоставки, нормализирачки совети.

И тука е практичната поента: ако mainstreaming е процес (интеграција во сите фази), тогаш во чет-бот системи мора да биде распределен низ архитектурата, не залепен на крај како финален филтер.

Три места каде снипетите „живеат“: Pre / Post / Audit

Оваа типологија е многу употреблива затоа што го преведува gender mainstreaming во инженерска логика:

  • Pre-snippets (пред генерација): поставуваат услови на релевантност, ја намалуваат веројатноста моделот да влезе во есенцијализирачки патеки, и го туркаат одговорот кон контекст и варијации. скратено снипети
  • Post-snippets (по генерација): селективно интервенираат кога има индикатори за штета (генерализација, есенцијализам, стигма), и тоа пропорционално — без да го претворат системот во морализатор. скратено снипети
  • Audit/trace snippets: создаваат минимални траги за тоа кога и зошто се активирала контролата, за да може институцијата да идентификува обрасци, не само инциденти. скратено снипети

Ова е важен пресврт: од прашањето „дали овој одговор е добар“ кон прашањето „дали системот има повторлив режим што ги намалува ризиците низ многу интеракции“.

Пропорционалноста како механизам: gate–threshold + action ladder

Кога „родовата перспектива“ се имплементира како контрола, најлесно е да се претера: да се јавуваат напомени постојано, да се дисциплинира корисникот, да се создава отпор. Затоа се предлага јасна логика што ја претвора пропорционалноста во извршлив дизајн:

  • Gate: дали воопшто има родово/дискриминациски контекст? Ако нема — нема интервенција.
  • Indicators: сигнали за генерализација/есенцијализам/чувствителни теми.
  • Threshold: се активира само при акумулација на сигнали или чувствителен домен.
  • Action ladder: преформулација → кратка институционална напомена → одбивање/ескалација при висок ризик. скратено снипети

Ова е „mainstreaming-by-construction“ во најкондензирана форма: норма што делува селективно, а не како blanket морално правило.

Worked example што ја прави тезата „видлива“: WordPress + AI Engine (aigender.net)

Еден од најсилните делови е што ова не е само теорија: се покажува каде конкретно, во реална продукциска поставка, можат да се закачат снипетите. Во WordPress со AI Engine, преку hooks/filters, pre- и post-слоевите можат да се вметнат како middleware контроли, што го прави пристапот репродуцибилен и независен од тоа кој провајдер/модел е позади. скратено снипети

И уште поважно: случајот ја нагласува институционалната тежина — чет-ботот не е „општ асистент“, туку дел од академска инфраструктура, па прашањето за „институционален глас“ и одговорност станува централно. скратено снипети

Каде може да тргне наопаку (и зошто ова е важно да се каже)

Но да бидеме искрени и критичени: snippet-based mainstreaming не е автоматски еманципаторен. Постојат барем три ризици:

  1. Over-governance: ако контролите се активираат премногу често, системот станува дисциплинирачки и може да создаде нееднаков пристап до услугата. скратено снипети
  2. Комплајанс-театар: снипетите може да служат како „доказ за одговорност“ без реален процес на тестирање и ревизија. скратено снипети
  3. Нови црни кутии: ако контролите не се документирани и оспорливи, „контролата“ станува нова непрозирност наместо решение. скратено снипети

Поентата што го прави текстот зрел е дека mainstreaming не значи само „да се додаде род“, туку да се изгради управувана инфраструктура која може да се проверува и унапредува..

Поента

Ако родовата перспектива сака да биде повеќе од етичка декларација, таа мора да има архитектонска форма: извршливи, модуларни и ревидирачки контроли. Кодните снипети, во твојата рамка, се токму тоа — мост меѓу феминистичка STS критика и современа AI governance логика: норма што е лоцирана, проверлива и (критично) оспорлива.

Започнува подкаст-серијата на АИ Платформата на Филозофскиот факултет

АИ Платформата на Филозофскиот факултет при УКИМ го проширува својот едукативен и истражувачки опсег преку нова подкаст-серија, посветена на критичката интеграција на вештачката интелигенција во образованието. Овој формат има за цел да понуди разговорни, но академски засновани содржини, кои обработуваат клучни прашања поврзани со AI писменоста, педагошките трансформации и етичките импликации.

Првата епизода, објавена на 19 септември 2025 година, е насловена „Компетенции за AI писменост: Критериуми и дескриптори“ и се фокусира на концептуализацијата на AI писменоста преку конкретни критериуми и дескриптори применливи во наставен и институционален контекст. Во епизодата се разработуваат:

основните компоненти на AI писменост (знаења, вештини, ставови);

методи за проценка и развој на компетенции кај наставници и ученици;

етички и критички аспекти на употребата на AI во образованието;

можности за институционална имплементација и трансфер на модели.

Подкастот е достапен преку официјалната страница на АИ Платформата, со времетраење од 22 минути и 54 секунди. Слушателите можат да го проследат преку вграден плеер или да се претплатат преку RSS фид.

Оваа иницијатива претставува нов чекор во развојот на контекстуално релевантни, етички одржливи и академски засновани ресурси за интеграција на вештачката интелигенција во наставата, учењето и истражувањето. Подкаст-серијата ќе продолжи со тематски епизоди кои обработуваат AI во основното и средното образование, дигитална писменост, модели на имплементација и критичка педагогија.

Почеток на AI Платформата на Филозофскиот факултет – Ново Лице на Образованието и Истражувањето

Во свет во кој вештачката интелигенција сѐ подлабоко навлегува во секојдневието, Филозофскиот факултет при Универзитетот „Св. Кирил и Методиј“ во Скопје го отвора новото поглавје на дигиталната трансформација. Со амбициозниот проект „Потенцијали и предизвици на примената на вештачката интелигенција во наставата, учењето и истражувањата во општествените и хуманистичките науки: Студија на случај – Филозофски факултет – Скопје“, започнува нова ера на академска иновација, интерактивност и продуктивност.

Целта на проектот е да ја анализира и оцени интеграцијата на AI технологиите – како специјализирани ботови и алатки за автоматско генерирање содржини – во образовните и истражувачките процеси во дисциплини како филозофија, историја, педагогија, психологија и многу други на факултетот. Проектните активности се фокусираат на три модели на интеграција: целосна, делумна и континуирана, при што „AI Академијата“ како образовна платформа ќе биде оперативен фокус за тестирање и примена.

Идејата е преку конкретни примери да се утврди како AI иновативно ја менува наставната ефикасност, динамиката во училницата и продуктивноста во истражувањата. Се анализираат и перцепциите и подготвеноста на студентите и наставниот кадар за користење на новите технологии, со акцент на тоа дали обуките, практичната примена и стекнатото искуство позитивно ги менуваат дигиталните компетенции и критичкото разбирање на корисниците. Воедно, со особена одговорност се разгледуваат и етичките и методолошки прашања кои произлегуваат од ваквата интеграција.

Постојат и две клучни хипотези: дека интеграцијата на AI значително придонесува за подобрување на академската ефикасност, интерактивност и дигиталната писменост и дека различните дисциплини ќе покажат различен степен на адаптација и ефективност кон овие технологии.

Со отворањето на оваа платформа, Филозофскиот факултет поставува јасна академска и етичка рамка за одговорна примена на AI во високото образование во Македонија и ја зацврстува својата позиција како регионален лидер во интеграцијата на современите технологии во општествените и хуманистичките науки. Очекуваме дека ова е само почеток на една поиновативна, покритична и поинтерактивна академска иднина.

Очекувајте повеќе вести, искуства од наши студенти и наставници, како и резултати од оваа иницијатива – бидејќи иднината на образованието започнува тука и сега!