SMART CITIES INSTITUTUKO IKERKETA TALDEA

Ezkerretik eskuinera, Mikel Galar, Daniel Paternain, Arantxa Villanueva, Andoni Larumbe eta Gonzalo Garde ikertzaileak

NUPeko zenbait ikertzailek begiradaren jarraipen teknikekin probak egin dituzte zenbait gailutan, hala nola ordenagailu eramangarrietan eta eskuko telefonoetan

Smart Cities Institutuko talde batek “eye-tracking” sistemen doitasuna hobetu nahi du aplikazio berrietan erabiltzeko

Nafarroako Unibertsitate Publikoko Smart Cities Institutuko ikerketa talde bat lanean ari da egunero erabiltzen diren gailuetan, hala nola ordenagailu eramangarrietan edo telefono adimendunetan, begiradaren jarraipen sistemen (“eye-tracking”) doitasuna hobetzeko proiektu batean. Hobekuntza horrek areagotu egingo lituzke teknologia horrek izaten ahal dituen merkataritzako aplikazioak, eta gailu horiek bestelako esparruetan erabiltzeko aukera emanen luke

Begiradaren jarraipena azpiegitura konplexu eta erabiltzailearentzat oso mugatuen bidez egin da historikoki. Gainera, azpiegitura horiek eskatzen zuten norbera mugitu gabe egon zedila erabiltzen zituenean bere begi ninien mugimendua modu egokian erregistratzeko. Sistema horiek merkaturatu egiten dira, baina oso eremu zehatzetan baino ez dira erabiltzen, hala nola mugitzeko desgaitasun oso larria duten erabiltzaileek makinarekin duten elkarreraginean (esaterako, ELA duten pazienteetan), edo begi-mugimenduen azterketan zenbait industriatan, hala nola neuromarketinean edo kirol-errendimenduaren ikerketan.

Arantxa Villanueva Larre proiektuko ikertzaile nagusiak uste du bera buru duen ‘Gaze Interaction 4 Everybody’ (GI4E) ikerketa taldeak eye-tracking delakoaren esparruan duen hogei urte baino gehiagoko eskarmentua erabiltzen ahal duela adimen artifizialeko sistemek eskaintzen dituzten benetako aukerak ulertzen laguntzeko. “Teknologia oraindik hastapenetan dago eta proiektu honen bidez sistema horiei buruzko jakintza oinarri bat sortu nahi dugu. Teknologiaren mugak zein diren ikusi nahi dugu, zeinak ez baitira ezagutzen oraindik”, zehaztu du.

Hori lortzeko, NUPeko ikertzaileek irudi sintetikoak sortzen dituzte, pertsona artifizial baten aurpegia erakusten dutenak. Horien bidez zenbait begirada mota simulatzen ahal dituzte eta ondoren haien jarraipena egin. “Teknika honen bidez, idealki lor genezakeen begiradaren jarraipena egiteko eredurik onena sortzea lortu dugu, eta, hortik aurrera, haren mugak karakterizatzen ari gara, pertsona errealen irudiekin egindako esperimentuen emaitzekin alderatuz”, azaldu du Villanuevak. Proiektuak erakunde sustatzaile eta behatzaile gisa dauka das-Nano izeneko enpresa eta dagoeneko finkatu dira zenbait koordinazio bilera ezagutza transferitzeko formulak identifikatzeko.

Proiektuaren izenburua ChETOS da (Asmo orokorreko osagaiak eta sare neuronalak erabiliz begiradaren estimazioa egiteko sistema baten erronkak), eta Zientziaren, Berrikuntzaren eta Unibertsitateen Ministerioaren finantzaketa du 2021-2024 aldirako. Proiektuan lanean dihardute Arantxa Villanueva, Rafael Cabeza, Sonia Porta, Gonzalo Garde, Andoni Larumbe, Benôit Bossavit eta Arnaldo Belzunce GI4E taldeko ikertzaileek eta Mikel Galar eta Daniel Paternain GIARA taldeko ikertzaileek, zeinek adimen artifizialeko hurbilketak aplikatzen baitituzte sortutako arazoa konpontzeko.

Adimen artifizialaren laguntza

Egun, hainbat ekimen daude abian esparru teknologikoan, begiradaren jarraipen teknikak hardware unibertsalagoaren bidez egiten ahalegintzeko. Nolanahi ere, orain arte lortutako emaitzek ekipo konplexuekin egindako neurketek baino zehaztasun txikiagoa dute, 5-7°-ra bitarteko perdoia baitute (2-3° ikerketa puntakoenetan). Marjina horiek ez dira aski emaitzen erabilgarritasuna bermatzeko.

Proiektuaren arduradunak azaldu duenez, “erabiltzen ari ginen prestazio handiko ohiko sistemetan lortzen dugun irudia oso kalitate onekoa da. Begia bakarrik harrapatzen da, eta ederki bereizten dira begi-ninia, irisa, esklerotika, malko-jarioa… Hala ere, webcam baten edo mugikorraren aurreko kameraren irudia hartzen badugu, pertsonaren irudi osoa dugu, hondo bat, oso aldakorra izaten ahal den argiztapena…, eta arazoa asko korapilatzen da”.

Mundu osoko hainbat unibertsitatetako ikerketa-taldek proposatutako konponbidea izan da hartutako irudietatik abiatuz adimen artifizialeko algoritmoak erabiltzea begiradaren norabidea zein den jakiteko, halako eran non sistemak autoikasiko duen aztertutako pertsonen lagin oso zabal batean oinarrituta. Edonola ere, adimen artifizialeko sistemek mugak dituzte.

Ohiko arazoetako bat da gure begiradaren norabidearen eta gure begi globoaren ardatz optikoaren arteko desfasea neurtzeko zailtasuna. Puntu bat begiesten dugunean, simetria ardatz bat sortzen da begi niniaren erdigunetik behatutako punturantz igarotzen dena. Nolanahi ere, egiaz ez dugu norabide horretan begiratzen. Denok dugu ikusizko ardatz bat, erretinako gune oso zehatz bat, fobea, behatutako objektuarekin lotzen duena, eta horrek irudikatzen du benetan begirada.. Adimen artifizialeko sistemek arazorik gabe zehazten ahal dute ardatz optikoa, baina ez begiradaren norabidea”, zehaztu du Arantxa Villanuevak.