Basque subtitles for clip: File:Ikusgela-Adimen artifiziala.webm
Jump to navigation
Jump to search
1 00:00:03,240 --> 00:00:07,170 Nork idatzi du datozen minutuetan esango dudan hau guztia? 2 00:00:07,440 --> 00:00:08,800 Nik neuk? Gidoilari batek? 3 00:00:09,100 --> 00:00:10,930 Edo adimen artifizala izan al da? 4 00:00:11,080 --> 00:00:14,715 Kontu bakarra da ziurra: bideo hau sortu eta berehala, 5 00:00:14,739 --> 00:00:17,590 bertan azaltzen dizuguna, zaharkituta gera liteke. 6 00:00:17,830 --> 00:00:21,588 Gizakiontzat ez da batere erraza egiletza bereiztea. 7 00:00:21,613 --> 00:00:25,560 Eta horrek, adimen artifizialaren aurrerapenen neurria ematen digu. 8 00:00:25,585 --> 00:00:28,074 ChatGPT eta antzeko tresnek, 9 00:00:28,098 --> 00:00:30,535 testuak osotasunean idazteko gaitasuna dute, 10 00:00:30,559 --> 00:00:33,760 zehaztasunez eta eskatutako estilora moldatuta. 11 00:00:33,820 --> 00:00:37,345 Eta beste tresna batzuk irudiak hutsetik sortzeko gai dira, 12 00:00:37,369 --> 00:00:39,970 guk emandako aginduak errespetatuta. 13 00:00:39,995 --> 00:00:41,955 AA edo adimen artifiziala 14 00:00:41,980 --> 00:00:43,030 ez da gai berria. 15 00:00:43,080 --> 00:00:46,850 Abiadura bizian eboluzionatzen ari den teknologiaren lehenengo probak 16 00:00:46,874 --> 00:00:50,300 1943koak dira, pentsa. 17 00:00:50,320 --> 00:00:54,454 Baina 2022 geroztik bete-betean sartu da gure bizitzetan, 18 00:00:54,479 --> 00:00:57,254 eta nola ez, lagunarteko eztabaidetan. 19 00:00:57,279 --> 00:00:59,720 Baina nola funtzionatzen du honek guztiak? 20 00:00:59,950 --> 00:01:02,210 Eta zenbat aldatuko ditu gure bizitzak? 21 00:01:10,001 --> 00:01:13,167 Adimen artifiziala da makinek duten gaitasuna 22 00:01:13,191 --> 00:01:16,044 normalean giza adimena behar duten lanak egiteko. 23 00:01:16,068 --> 00:01:21,275 Besteak beste, ikaskuntza, erabakiak hartzea eta ereduak identifikatzea. 24 00:01:21,300 --> 00:01:23,960 Hori lortzeko, adimen artifizialaren garatzaileek 25 00:01:23,985 --> 00:01:26,082 neurona-sarea esaten zaiona erabiltzen dute. 26 00:01:26,433 --> 00:01:29,910 Neurona-sareak zeregin zailak egiten ikas dezake, 27 00:01:29,950 --> 00:01:33,297 hala nola irudiak ezagutzen edo hizkuntzak itzultzen. 28 00:01:33,321 --> 00:01:36,538 Sare neuronal batek esperientziaren bidez ikasten du. 29 00:01:36,563 --> 00:01:39,977 Horrek esan nahi du datu-multzo batekin entrenatzean, 30 00:01:40,001 --> 00:01:43,840 datu-multzo horrek bere konexioak eta parametroak doi ditzakeela 31 00:01:44,020 --> 00:01:46,220 nahi den lana egiteko gaitasuna hobetzeko. 32 00:01:46,270 --> 00:01:50,211 Alegia, algoritmo propioak sortu eta moldatu ditzakeela, 33 00:01:50,235 --> 00:01:52,450 ikasketa automatikoaren bidez. 34 00:01:52,660 --> 00:01:57,138 Funtsean, neurona-sare bat "neurona artifizial" askok osatzen dute, 35 00:01:57,162 --> 00:01:59,860 eta elkarrekin konektatutako geruzetan antolatzen dira. 36 00:01:59,920 --> 00:02:02,763 Neurona bakoitzak informazio pixka bat jasotzen du 37 00:02:02,787 --> 00:02:06,270 eta eragiketa matematiko txiki bat egiten du prozesatzeko. 38 00:02:06,350 --> 00:02:10,196 Ondoren, informazio hori hurrengo geruzako neuronetara pasatzen da, 39 00:02:10,221 --> 00:02:14,100 eta horrela hurrenez hurren, azken erantzuna lortzen den arte. 40 00:02:14,380 --> 00:02:18,340 Hori bai, datuak eman egin behar zaizkio neurona-sareari entrenatzeko. 41 00:02:18,390 --> 00:02:20,680 Mota ezberdinetako ikaskuntza prozesuak daude: 42 00:02:20,988 --> 00:02:24,650 1- Gainbegiratutako ikaskuntza: 43 00:02:24,650 --> 00:02:26,940 entrenamendu mota hau aurretik etiketatutako 44 00:02:26,964 --> 00:02:28,830 datu multzo bat dagoenean erabiltzen da, 45 00:02:28,855 --> 00:02:29,675 hau da, 46 00:02:29,700 --> 00:02:33,660 sarrera bakoitzerako erantzun zuzena zein den jakiten denean. 47 00:02:34,230 --> 00:02:38,100 AAk datu etiketatu horietatik abiatuta ikasten du, 48 00:02:38,180 --> 00:02:41,520 eta, gero, datu berrietarako iragarpenak egin ditzake. 49 00:02:42,190 --> 00:02:44,610 2- Gainbegiratu gabeko ikaskuntza: 50 00:02:45,190 --> 00:02:46,711 entrenamendu mota honetan, 51 00:02:46,736 --> 00:02:49,550 AAk ez du aurretik etiketatutako daturik. 52 00:02:49,630 --> 00:02:52,220 Horren ordez, datu-multzo bat aurkezten zaio, 53 00:02:52,244 --> 00:02:56,660 eta datu horien barruan patroiak edo egiturak aurkitzeko eskatzen zaio. 54 00:02:57,100 --> 00:03:00,020 Hori baliagarria izan daiteke datuak aztertzeko edo 55 00:03:00,044 --> 00:03:02,060 bezeroak segmentatzeko, adibidez. 56 00:03:02,414 --> 00:03:05,240 3- Errefortzu bidezko ikaskuntza: 57 00:03:05,520 --> 00:03:10,460 entrenamendu mota hau AAri erabakiak hartzen irakasteko erabiltzen da, 58 00:03:10,590 --> 00:03:12,850 sariaren eta zigorraren bidez. 59 00:03:13,140 --> 00:03:14,430 Agertoki bat aurkeztu, 60 00:03:14,510 --> 00:03:16,540 eta ekintza bat egiteko eskatzen zaio. 61 00:03:16,800 --> 00:03:19,941 Ekintza zuzena bada, AAk sari bat jasotzen du, 62 00:03:19,965 --> 00:03:23,110 baina ekintza zuzena ez bada, zigorra jasotzen du. 63 00:03:23,300 --> 00:03:24,165 Denborarekin, 64 00:03:24,190 --> 00:03:28,860 AAk erabaki zuzenak hartzen ikasten du sariak maximizatzeko. 65 00:03:29,050 --> 00:03:29,975 Adibide bat, 66 00:03:30,000 --> 00:03:33,550 ordenagailu batek aurpegiak ezagutzen ikas dezan nahi badugu, 67 00:03:33,680 --> 00:03:37,220 horietako bakoitzean agertzen denari buruzko informazioa duten 68 00:03:37,244 --> 00:03:39,610 irudi etiketatu ugari emango dizkiogu. 69 00:03:39,800 --> 00:03:42,937 Konputagailuak datuetako patroiak aztertzen ditu, 70 00:03:42,962 --> 00:03:46,830 eta irudi berrietan aurpegiak identifikatzeko eredu bat sortzen du. 71 00:03:47,130 --> 00:03:50,059 Eta zergatik da hau guztia hain esanguratsua? 72 00:03:50,083 --> 00:03:54,147 Batez ere, gure bizitzako alor askotan erabil daitekeen teknologia delako. 73 00:03:54,172 --> 00:03:58,459 Osasungintzan, adimen artifizialeko sistemek gaixotasunak diagnostikatzen 74 00:03:58,483 --> 00:04:01,940 eta tratamenduen emaitzak aurresaten lagun diezaiekete medikuei. 75 00:04:02,080 --> 00:04:06,193 Ordenagailu bidez egiten diren lan gehienak automatizatzeko gai ere bada, 76 00:04:06,218 --> 00:04:07,700 gero eta emaitza hobeekin. 77 00:04:07,790 --> 00:04:10,646 Diseinu lanak, idatzizkoak, aurreikuspenak… 78 00:04:10,670 --> 00:04:15,242 Abiada bizian ari da garatzen, eta gero eta gaitasun ikusgarriagoak ditu. 79 00:04:15,266 --> 00:04:17,690 Baina kontuz, ahots kritikoak ere badira. 80 00:04:17,820 --> 00:04:18,667 Eta eskerrak: 81 00:04:18,691 --> 00:04:22,052 teknologia honen arriskuez ohartarazi baikaituzte. 82 00:04:22,076 --> 00:04:25,867 Alde batetik, adimen artifiziala gero eta aurreratuago bihurtu ahala, 83 00:04:25,891 --> 00:04:27,850 dilema etiko berriak sortzen dira. 84 00:04:28,070 --> 00:04:28,775 Adibidez, 85 00:04:28,800 --> 00:04:32,710 nor da erantzulea ibilgailu autonomo batek istripua eragiten badu? 86 00:04:32,730 --> 00:04:35,698 Nola berma dezakegu adimen artifizialeko sistemek 87 00:04:35,722 --> 00:04:38,170 ez zenbait pertsona-talde diskriminatzea? 88 00:04:38,236 --> 00:04:40,998 Etikoa al da gizakiak kaltetu ditzaketen erabakiak 89 00:04:41,022 --> 00:04:43,497 hartuko dituzten adimen artifizalak sortzea? 90 00:04:43,535 --> 00:04:45,050 Zeinen esku dago teknologia? 91 00:04:45,160 --> 00:04:47,586 Zenek ikuskatu edo kontrolatzen ditu erabakiak? 92 00:04:47,610 --> 00:04:53,445 Hauek dira teknologiak aurrera egin ahala landu beharreko dilema etikoetako batzuk. 93 00:04:53,470 --> 00:04:54,505 Eta hizkuntzekin zer? 94 00:04:54,530 --> 00:04:57,587 Hizkuntza gutxituen komuniteetatik nola begiratu honi? 95 00:04:57,626 --> 00:04:58,955 Ez dago erantzun borobilik. 96 00:04:58,980 --> 00:05:01,710 Hizkuntza gutxituak eta adimen artifiziala: 97 00:05:01,980 --> 00:05:04,346 Adibidez, itzulpen automatikoko sistemek 98 00:05:04,370 --> 00:05:08,472 hizkuntza desberdinetako hiztunen arteko komunikazioa erraztu dezakete, 99 00:05:08,498 --> 00:05:11,312 eta horrek eragin positiboa izan lezake 100 00:05:11,336 --> 00:05:13,510 hizkuntza gutxituen zaintza eta sustapenean. 101 00:05:13,560 --> 00:05:15,648 Baliteke, teknologia hauei esker, 102 00:05:15,673 --> 00:05:18,265 edozein eduki gure hizkuntzan jaso ahal izatea, 103 00:05:18,289 --> 00:05:21,470 inoren itzulpen edo bikoizketa lanen premiarik gabe. 104 00:05:21,630 --> 00:05:23,190 Baina oro ez da urre. 105 00:05:23,430 --> 00:05:26,156 Adimen artifizialeko sistemek aurreiritziak eta 106 00:05:26,180 --> 00:05:30,960 hizkuntza-diskriminazioa erreproduzitzeko arriskua ere hor dago. 107 00:05:30,985 --> 00:05:34,853 Litekeena da hizkuntza gutxituen nahiko informazio ez izatea, 108 00:05:34,878 --> 00:05:37,928 eta hortaz, beste hizkuntzetan baino akats gehiago egitea, 109 00:05:37,952 --> 00:05:39,829 edo ez izatea nahikoa xehetasun, 110 00:05:39,853 --> 00:05:43,618 hizkuntza komunitate txikiagoen gaineko xehetasunak bereizteko. 111 00:05:43,642 --> 00:05:46,280 Munduan 7000 hizkuntza inguru daude. 112 00:05:46,430 --> 00:05:48,097 Haietako zenbatetan izango da 113 00:05:48,121 --> 00:05:50,880 adimen artifizialaren gaitasunak baliatzeko aukera? 114 00:05:51,070 --> 00:05:53,110 Adibidez, erabiltzen diren modeloak, 115 00:05:53,134 --> 00:05:55,844 datu asko dituzten hizkuntzentzako pentsatuak dira 116 00:05:55,868 --> 00:05:57,654 hizkuntza komunitate horiek 117 00:05:57,678 --> 00:05:59,816 baliabide teknologiko gehiago izan ohi dituzte. 118 00:05:59,840 --> 00:06:01,870 Horregatik ere, garrantzitsua da 119 00:06:01,890 --> 00:06:04,451 datu erabilgarri eta libre propioak izateaz gain, 120 00:06:04,475 --> 00:06:07,615 baliabide gutxiago behar dituzten modeloetan ikerketzea 121 00:06:07,639 --> 00:06:11,350 edo gure antzekoak diren beste hizkuntza komunitateekin elkarlanean aritzea. 122 00:06:11,400 --> 00:06:13,210 Beldurtu, liluratu? 123 00:06:13,250 --> 00:06:14,699 Zer egiten zaitu honek? 124 00:06:14,723 --> 00:06:17,850 Oso azkar dijoa dena, eta ez da erraza erritmoa jarraitzea. 125 00:06:17,874 --> 00:06:20,750 Baina ez ahaztu, informazioa boterea da. 126 00:06:20,930 --> 00:06:24,900 Hemendik saiatuko gara, gure aletxoa jartzen denok eskura izateko. 127 00:06:25,220 --> 00:06:27,926 Ulertzeak burujabe egiten gaitu.