Döntési intelligencia: Az etikai dilemma

A döntési intelligencia kihasználása hatalmas előnyt jelenthet minden vállalkozás számára. De hogyan biztosíthatjuk, hogy a mesterséges intelligencia döntései megegyezzenek az saját emberi értékrendünkkel? És hogyan biztosíthatjuk, hogy egy-egy vállalati AI megfeleljen az előírt jogszabályoknak?

Képzeljünk el egy olyan világot, ahol a gépek jobb döntéseket tudnak hozni, mint az emberek. Egy olyan világot, ahol a mesterséges intelligencia (AI) életünk minden területét optimalizálni tudja, az üzleti élettől kezdve az egészségügyön át az oktatásig. Utópikus álomnak hangzik, igaz? Nos, talán nem is olyan távoli, mint gondolnánk. 

2023 utolsó hónapjaiban “tektonikus” mozgásnak lehettünk tanúi az AI-iparban (a CNN meghatározása szerint), példátlan eseményekkel és problémákkal. Az elmozdulás fő oka az OpenAI-nál, a világ egyik vezető AI-kutató szervezeténél kialakult belső konfliktus volt, amely a ChatGPT nevű generatív AI-eszköz megalkotásáról ismert. Ez a konfliktus két különböző jövőképet tárt fel az AI jövőjéről: az egyik egy etikus AI létrehozására törekszik, a másik pedig csak az AI-ban rejlő teljes potenciál felszabadítására. A történtek szélesebb körű vitához vezettek az intelligens technológiák etikai és politikai problémáiról.

Ebben a cikkben a döntési intelligencia megjelenését vizsgáljuk meg. Megvizsgáljuk továbbá azt az etikai dilemmát, amely abból adódik, hogy a gépek támogatják a döntéshozatalt és egyre autonómabbá válnak, valamint a vállalatirányítási, kockázatkezelési és megfelelési szervezeti funkciók (GRC) szükségességét ebben a kialakulóban lévő üzleti területen.

A döntési intelligencia adventje

A döntési intelligencia azonban kihívásokkal és kockázatokkal jár. Az, hogy a technológiai szuperagyak támogatják és befolyásolják a döntéshozatalt, egészen addig a szintig, ahol egyre inkább önálló döntéseket hoznak a gépek, etikai olyan dilemmát vet fel, amelyet a sci-fi filmek már sokszor feldolgoztak.

A való életben is emlékszünk az önvezető autók körüli vitákra: Mit tegyen az önvezető autó, ha nem tud elkerülni egy balesetet? Meg kell-e próbálnia például megmenteni az úton sétáló embert, még akkor is, ha ezzel kárt okoz az autóban ülőknek? Vagy az autóban ülőket kell-e biztonságban tartania, még akkor is, ha elüt egy csapat gyereket? Ezek a forgatókönyvek kérdéseket vetettek fel az autonóm cselekvésre képes gépek erkölcsi és jogi következményeiről, valamint az emberi biztonságra, autonómiára és felelősségre gyakorolt lehetséges hatásairól.

Ugyanezek a kérdések merülnek fel, ha üzleti szituációkra gondolunk. A vita a közelmúltban az úgynevezett “OpenAI fiaskó” után felerősödött: Kevesebb mint 60 óra alatt az OpenAI vezérigazgatóját, Sam Altmant kirúgták, majd újra felvették, elsősorban a vállalat igazgatótanácsában kialakult véleménykülönbség miatt.

Az egyik oldalon a Hatékony Altruisták állnak, akik egy etikus AI meghatározásában gondolkodnak; a másik oldalon az Idealisták, akik szerint elkerülhetetlen az AI-ban rejlő teljes potenciál felszabadítása. A források szerint az OpenAI-nál kialakult konfliktus oka a Q* nevű új projekt, amely egy új AI-modell, amely a mesterséges általános intelligencia (AGI) előfutára lehet. Kétségtelen, hogy minél több autonómiát engedünk át a gépeknek a döntéshozatalban, annál inkább tisztában kell lennünk a kockázatokkal: A sci-fi filmek hamarosan valósággá válhatnak.

Az etikai dilemma

A döntési intelligencia azonban kihívásokkal és kockázatokkal jár. Az, hogy a technológiai szuperagyak támogatják és befolyásolják a döntéshozatalt, egészen addig a szintig, ahol egyre inkább önálló döntéseket hoznak a gépek, etikai olyan dilemmát vet fel, amelyet a sci-fi filmek már sokszor feldolgoztak. 

A való életben is emlékszünk az önvezető autók körüli vitákra: Mit tegyen az önvezető autó, ha nem tud elkerülni egy balesetet? Meg kell-e próbálnia például megmenteni az úton sétáló embert, még akkor is, ha ezzel kárt okoz az autóban ülőknek? Vagy az autóban ülőket kell-e biztonságban tartania, még akkor is, ha elüt egy csapat gyereket? Ezek a forgatókönyvek kérdéseket vetettek fel az autonóm cselekvésre képes gépek erkölcsi és jogi következményeiről, valamint az emberi biztonságra, autonómiára és felelősségre gyakorolt lehetséges hatásairól.

Ugyanezek a kérdések merülnek fel, ha üzleti szituációkra gondolunk. A vita a közelmúltban az úgynevezett “OpenAI fiaskó” után felerősödött: Kevesebb mint 60 óra alatt az OpenAI vezérigazgatóját, Sam Altmant kirúgták, majd újra felvették, elsősorban a vállalat igazgatótanácsában kialakult véleménykülönbség miatt.

Az egyik oldalon a Hatékony Altruisták állnak, akik egy etikus AI meghatározásában gondolkodnak; a másik oldalon az Idealisták, akik szerint elkerülhetetlen az AI-ban rejlő teljes potenciál felszabadítása. A források szerint az OpenAI-nál kialakult konfliktus oka a Q* nevű új projekt, amely egy új AI-modell, amely a mesterséges általános intelligencia (AGI) előfutára lehet. Kétségtelen, hogy minél több autonómiát engedünk át a gépeknek a döntéshozatalban, annál inkább tisztában kell lennünk a kockázatokkal: A sci-fi filmek hamarosan valósággá válhatnak.

Vállalatirányítási, kockázatkezelési és megfelelési szervezeti funkciók szükségessége

Bármi is történik a következő hónapokban és években, az fogja meghatározni az emberiség jövőjét, és egy új korszak alapjait fogja lerakni. Egyre több kormány és politikus próbálja majd szabályozni az AI használatát. Valószínűleg azonban szükségünk lesz néhány közös nemzetközi jogszabályra, hogy megelőzzük az emberiséget fenyegető kockázatokat.

A döntési intelligencia térnyerésével az üzleti alkalmazásoknak és platformoknak olyan beágyazott eszközökre van szükségük, amelyek képesek az AI kockázatainak értékelésére, a megfelelési szabályok alkalmazására, valamint az alkalmazások és rendszerek által hozott döntések megvalósíthatóságának automatikus szabályozására. Az új GRC-eszközöknek összhangban kell lenniük a vállalati értékekkel és az új jogszabályokkal. A vállalatoknak fel kell készülniük a jövőre, és olyan technológiai szolgáltatókkal kell partnerségre lépniük, amelyeknek világos stratégiájuk van az új törvényeknek és szabályozásoknak megfelelő AI-irányítással kapcsolatban.

Így, hogy már javában 2024-ben járunk, nyilvánvalóvá vált, hogy a technológia és az etika metszéspontja fogja meghatározni a közeljövőnk narratíváját. Az informatika, a politika, a humán tanulmányok és a jövőkutatás minden vezetőjének és döntéshozójának – beleértve a CIO-kat, CEO-kat és a CTO-kat – felelőssége egy olyan jövő kialakítása, amelyben az AI úgy növeli az emberi potenciált, hogy közben nem veszélyezteti etikai alapjainkat. A technológiai szolgáltatóknak pedig alkalmazkodniuk kell a mesterséges intelligencia változó környezetéhez, átlátható, szabályszerű és megbízható megoldásokat kínálva. Csak így biztosíthatjuk, hogy a döntési intelligencia a jót szolgálja, és nem pedig kárt okoz nekünk és a következő generációknak.

Forrás

Ez is érdekelheti

ERP-csapda: az emberi tényező

ERP-csapda: az emberi tényező

Egy ERP használata ma már az egészen kis vállalatok számára sem kérdés iparágtól függetlenül. Bár a kis vállalatoknál viszonylag átlátható egy vállalatirányítási rendszer bevezetése, még számukra is...

read more
MRP vagy ERP?

MRP vagy ERP?

Az MRP, vagyis a gyártási erőforrás-tervezés a termelés tervezésére és ütemezésére, az anyagszükségletek és készletek menedzselésére létrehozott rendszer. Arra fejlesztették ki, hogy segítse a...

read more
EPR-megfelelés az Infor COM rendszerben

EPR-megfelelés az Infor COM rendszerben

Mielőtt belemennék az általános EPR-információkba, fontos kiemelnünk, hogy az Infor COM ERP-rendszer megfelel az EPR-rendelet előírásainak, mely szerint a gyártónak, illetve importőrnek a termék...

read more