robot playing piano

Ezek már szaporodnak! Itt a vég kezdete John Connorra várva?


Az elmúlt években nehéz volt nem észrevenni a mesterséges intelligencia ugrásszerű terjedését. A legfejlettebb algoritmusok ma már több százmilliárd kapcsolattal rendelkeznek, és a betanításukhoz dollármilliók és szuperszámítógépek szükségesek. De bármennyire is figyelemfelkeltő a nagy MI, a fejlődés nem csak a méretarányokról szól. A spektrum másik végén folyó munka ugyanolyan fontos a terület jövője szempontjából.

Egyes kutatók igyekeznek gyorsabbá, hatékonyabbá és hozzáférhetőbbé tenni a mesterséges intelligencia létrehozását, és az egyik fejlesztésre érett terület maga a tanulási folyamat. Mivel a mesterséges intelligencia modellek és a hozzájuk felhasznált adathalmazok exponenciálisan nőttek, a fejlett modellek betanítása napokig vagy hetekig is eltarthat, még szuperszámítógépeken is.

Egy új tanulmány leírja, hogy egy hipernetwork nevű algoritmustípus hogyan teheti sokkal hatékonyabbá a képzési folyamatot. A tanulmányban szereplő hipernetwork megtanulta egymillió példaalgoritmus belső paramétereit, így előre beállíthatta az új, nem képzett algoritmusok paramétereit. A GHN-2 nevű mesterséges intelligencia a másodperc töredéke alatt képes megjósolni és beállítani egy nem képzett neurális hálózat paramétereit.

És a legtöbb esetben a GHN-2 paramétereit használó algoritmusok ugyanolyan jól teljesítettek, mint azok az algoritmusok, amelyek több ezer edzéskörön mentek keresztül. Van még hova fejlődni, és a módszerrel kifejlesztett algoritmusoknak még további képzésre van szükségük ahhoz, hogy elérjék a legjobb eredményeket, szóval egyelőre még nem kell tartani a SkyNettől. A megközelítés azonban pozitív hatással lehet a területre, ha csökkenti a mesterséges intelligencia létrehozásához szükséges energiát, számítási teljesítményt és készpénzt.

(Forrás: SingularityHub)


A figyelmetekbe ajánljuk