Ако основниот модел направи грешка, на пример, измисли неточна информација, даде погрешен совет или донесе лош заклучок, второстепената компанија нема целосна контрола врз тоа однесување.
Во денешниот технолошки екосистем, ретко кој производ е изграден „од нула“. Постојат големи компании што развиваат основни модели на вештачка интелигенција, како Anthropic, ChatGPT, Google и Microsoft. Тие создаваат општи системи што потоа ги користат други компании како основа за свои решенија.
Покрај нив, постојат и таканаречени второстепени софтверски компании. Тие не ја создаваат самата интелигенција, туку ја вградуваат во свои производи – ERP системи, CRM платформи, аналитички алатки или автоматизација на процеси.
На прв поглед, ова изгледа како логичен развој: секој гради врз постоечка технологија. Но токму тука се крие еден од најголемите ризици.
Ако основниот модел направи грешка, на пример, измисли неточна информација, даде погрешен совет или донесе лош заклучок, второстепената компанија нема целосна контрола врз тоа однесување.
Таа може да додаде проверки, филтри и ограничувања. Но не може да го промени начинот на кој моделот „размислува“. Не може да навлезе во неговото јадро.
Со други зборови, тие градат производ врз нешто што не го контролираат целосно.
Кој е одговорен кога нешто ќе тргне наопаку?
Во таква ситуација, логично се поставува прашањето: ако корисникот претрпи штета, кој е одговорен?
Крајниот корисник најчесто ќе ја гледа компанијата што му го продала решението како одговорна. Тоа е природно – таа е лицето што стои зад производот.
Но таа компанија може да тврди дека грешката потекнува од основниот модел, односно од друг добавувач.
Така се создава синџир на одговорност, каде што:
§ едниот ја користи технологијата,
§ другиот ја развива,
§ а третиот ја користи крајната услуга.
Во таков синџир, одговорноста не исчезнува – туку се распрснува.
Текстот е сопственост на ЦивилМедиа.мк





