Umanditik Adimen Artifizialera
Euskarazko hedabide digitalak erdaraz itzuli ostean baino miatu ez dituzten erdipurdiko euskal irakurleek adierazi izaten dute sarri, euskal web-orrien itzulpen automatikoak Airbnb edo ebooking arruntak baino eskasagoak direla. Edozein delarik jatorrizko hizkuntza, bidai-webgune xumeetako itzulpen normaltxoak erabat naturalak diren artean, euskal testu digitalenak zeharo petralak suertatzen direla.
British Councilen programaz, Manchesterreko Unibertsitatean ari nintzela 1986an “Terrorismoa eta telebista” gaia aztertzen, bertan ezagutu nuen hogeitaka urteko euskal bekaduna, ingelesezko itzulpen automatikoaren lehen urraspideak aztarrikatzen ziharduena. Besteak beste, euskarazkoa noizko ote galdetu nion eta berak erantzun: “Oraindik ez, urte dezente behar izango dira horretarako”. Geroztik ia 40 urte joan dira, eta nahiz sektoreak sekulako garapena izan, euskal itzulpen automatikoak ez bide du oraindik hizkuntza nagusiek lortu duten mailarik erdietsi. Eta arazorik nagusiena ez da, ez, tradizioz euskarari leporatu ohi zaion berezko zailtasun-aitzakia.
Itzulpen automatikoak hiru urrats nabarmen jorratu ditu azken mende erdian. 1970 eta 1980ko hamarkadetan, itzulpen-lanak hizkuntzen barne-legeak baliatu izaten zituen, berariazko gramatika-arauak eta arloz arloko terminologien hiztegi berezituak. 1990 eta 2000ko hamarkadetan, gramatikak eta sektorekako hiztegi-zerrendek utzi zioten oinarrizko erreferentzia izateari, hizkuntza-eredu, estatistika eta probabilitate-jokoen mesedetan. Eta 2010eko hamarkadatik aurrera, berriz, indarrean jarri zen itzulpen neuronala, non sistema oinarritzen den automatikoki ikasteko, ulertzeko eta errepikatzeko gai diren algoritmoetan, giza-burmuinen neuronen antzera.
Andoni Urrestarazu “Umandi”k (1902-1993) euskaraz ikasteko eta irakasteko Gramática Vasca metodoa argitaratu zuen 1955ean eta, besterik ezean, sekulako arrakasta eta hiru argitalpen izan zituen arren, bigarren hizkuntzak ikasteko gaur egun desegokitzat jotzen diren baldintza guztiak betetzen zituen. Urte berean, 1955ean hain zuzen, John McCarthy (1927-2011) zientzialari, informatiko eta Adimen Artifizialaren aintzindariak zera esan zuen: “Adimen artifiziala gauzak egiteko makinak eraiki ahal izateko zientzia da, gizakiek egingo balituzte, adimena behar izango luketen gauzak”.
Ia 70 urte geroago, bigarren hizkuntzen ikasketaren metodologia guztiz aldatu da, orobat itzulpengintza, eta, ondorioz, baita giza-burmuinen jardun neuronala eredutzat hartuz, automatiko ikasi, ulertu eta errepikatzeko gauza izan daitezen burututako algoritmoak ere. Hala ere, ahalmen hau orokorra baldin bada, hizkuntza guztientzat balio badu edo balio beharko balu… orduan zergatik itzulpenak eskasagoak gertatzen dira euskara tarteko den kasuetan? Algoritmoei gehiago kostatzen ote zaie euskaraz ikastea?
Erantzuna ez da euskara beste hizkuntzak baino zailagoa delako, gutxiago erabiltzen delako baino. Arazoa ez da algoritmoei euskaraz ikastea gehiago kostatzen zaiela, ikasteko aukera gutxiago ematen diegula baino. Training-ordu gutxiagotara behartzen ditugulako, alegia. Ez da euren errua, eskari-maiztasun urria baino.
Atera kontuak zenbat bider trebesten eta gurutzatzen diren minutu oro, mundu osoan, hizkuntza nagusiak euren artean, eta zenbat izan ote daitezkeen, aldiz, euskararen eskakizunak. Hau da, euskal bezeroak ezin duena egin zera da: etengabe algoritmoak euskaraz ez besteko hizkuntzetan lanean jarri —irakatsi, entrenatu, landu—, Europako hiruzpalau nagusitan, eta gero, noizik behin anekdota gisa etsamina egite aldera, sistemak euskaraz moldakaitzago erantzuten duelako kontuak eskatzen hasi, nork bere buruari ezartzen ez dion kritika zorrotzaz.
Algoritmoak euskaldundu nahi baditugu, sarriago entrenatu beharko ditugu. Euskaldunaren kirol nazionalak jarraitzen duen bitartean izaten, printzipio-eskakizunak euskaraz baina eguneroko bizitza praktikoa erdaraz, nekez beteko da Etxepareren kontrapasaren aldarria.