Oppstarten prøver et nytt triks for å utvikle AI for Science Discovery
Oppstarten prøver et nytt triks for å utvikle AI for Science Discovery
Å utvikle kunstig intelligens for vitenskapelig oppdagelse har blitt et monumentalt mål for teknologigiganter. Selskaper som OpenAI og Anthropic har sikret titalls milliarder i finansiering med løfter om AI-gjennombrudd innen medisin, biologi og fysikk. Imidlertid forblir ekte AI-drevet vitenskapelig oppdagelse unnvikende, som demonstrert av tidligere hendelser som et avkreftet ChatGPT-generert mattefunn. Kjerneutfordringen, ifølge eksperter, er at dagens store språkmodeller (LLMs) mangler den iboende evnen til å generere ny vitenskapelig kunnskap autonomt.
Hvorfor store AI-laboratorier sliter med vitenskapelig oppdagelse
Markus Buehler, en MIT-ingeniørprofessor, identifiserer en grunnleggende begrensning i dagens avanserte AI. Han argumenterer for at modellene som driver systemene fra OpenAI og Anthropic ikke er designet for ekte oppdagelse. Arkitekturen deres er basert på mønstergjenkjenning fra eksisterende data, ikke på å lage nye teorier eller hypoteser.
Dette ble sterkt illustrert i fjor høst da en påstått matematisk oppdagelse av ChatGPT raskt ble avkreftet. Episoden fremhevet gapet mellom AIs analytiske kraft og dens kreative, oppdagelsesorienterte tenkning. Det er en utfordring som minner om andre AI-tiltak der teknologien sliter med originalitet, omtrent som kritikken som AI-skuespilleren Tilly Norwood møter for å mangle genuin kreativitet.
Kjerneproblemet med nåværende AI-modeller
Store språkmodeller utmerker seg ved å behandle og gjengi informasjon. De kan oppsummere tekster, svare på spørsmål og til og med skrive kode basert på treningsdataene deres. Imidlertid opererer de innenfor rammen av det de allerede har lært.
Vitenskapelig oppdagelse krever i sin natur å gå inn i det ukjente. Det innebærer å danne nye forbindelser mellom ulike felt og foreslå ideer som ikke finnes i noe opplæringsdatasett. Dette er et sprang som dagens generative AI, fokusert på innholdsskaping og automatisering, ikke er bygget for å ta. Bransjen utvikler seg, som sett med utviklinger som WordPress Gutenberg-oppdateringen som legger grunnlaget for AI-publisering, men kjerneutfordringen for oppdagelse gjenstår.
Vi introduserer Unreasonable Labs: A New Approach to AI for Science
For å løse dette gapet, grunnla professor Buehler Unreasonable Labs sammen med Yuan Cao, en tidligere seniorforsker ved Google DeepMind. Oppstarten tar sikte på å være banebrytende for en fundamentalt annerledes tilnærming til å utvikle AI for vitenskapelig oppdagelse. I stedet for å stole utelukkende på massiv datainntak, bygger de systemer som er i stand til tverrfaglig resonnement.
Unreasonable Labs sikret seg nylig $13,5 millioner i en finansieringsrunde ledet av Playground Global. Runden så deltagelse fra AIX Ventures, E14 Fund og MS&AD Ventures. Denne betydelige investeringen understreker markedets tro på deres nye metodikk.
Lær av "Aha"-øyeblikk i vitenskapshistorien
Buehlers hypotese er at mange store funn oppstår fra «aha»-øyeblikk. Dette er tilfeller der en vitenskapsmann bruker en teori eller et konsept fra ett felt for å løse et problem i et helt annet domene. Denne krysspollineringen av ideer er nøkkelen til gjennombrudd.
Et klassisk eksempel er John Hopfields arbeid i 1982. Han brukte konsepter fra kondensert materiefysikk til det da begynnende feltet av kunstig intelligens. Dette førte til utviklingen av Hopfield-nettverk, en type nevrale nettverk som er i stand til å lære og gjenkalle minner. Det var en revolusjonerende idé født av å koble sammen ikke-relaterte disipliner.
Hvor urimelig Labs' AI skiller seg fra mainstream-modeller
AI-en som utvikles ved Unreasonable Labs er designet for å etterligne denne menneskelige evnen til tverrfaglig innsikt. Målet deres er ikke å skape en større språkmodell, men å bygge et system som kan resonnere på tvers av vitenskapelige domener.
Tverrfaglige kunnskapsgrafer: I stedet for å trene på tekst alene, integrerer deres AI strukturert kunnskap fra flere vitenskapelige felt, fra biologi til fysikk. Analogiske resonneringsmotorer: Kjerneteknologien fokuserer på å finne analogier og paralleller mellom tilsynelatende urelaterte konsepter, en nøkkeldriver for vitenskapelig innovasjon. Hypotesegenerering: Systemet blir designet for å foreslå testbare vitenskapelige hypoteser, ikke bare analysere eksisterende data.
Denne tilnærmingen representerer en betydelig avvik fra oppkjøpsstrategiene til størreteknologifirmaer, som Zendesk-oppkjøpet av AI-startup Forethought, som ofte fokuserer på å foredle eksisterende kundeserviceapplikasjoner i stedet for å være banebrytende nye former for oppdagelse.
Fremtiden for AI-drevet oppdagelse
Hvis det lykkes, kan Unreasonable Labs sin teknologi akselerere forskning på kritiske områder. Se for deg en kunstig intelligens som kan foreslå en ny medikamentforbindelse ved å kombinere prinsipper fra kjemi og genetikk. Eller en modell som foreslår et nytt materiale for bærekraftig energi ved å koble begreper fra nanoteknologi og termodynamikk.
De potensielle bruksområdene er enorme, fra akselererende medisinsk forskning til å løse komplekse miljøutfordringer. Dette representerer den neste grensen for AI, og beveger seg forbi automatisering for å bli en ekte partner i menneskelig oppfinnsomhet.
Konklusjon: Den neste bølgen av AI-innovasjon
Kappløpet om å utvikle AI for vitenskapelig oppdagelse er i ferd med å varmes opp, men sann suksess kan ligge hos spesialiserte startups som Unreasonable Labs. Deres fokus på tverrfaglig resonnement tilbyr en lovende vei utover begrensningene til dagens store språkmodeller. Reisen til å skape en AI som virkelig kan oppdage er så vidt i gang.
Hold deg oppdatert på de siste innovasjonene innen AI og teknologi. For mer innsikt og for å enkelt dele denne artikkelen, lag din gratis link-i-bio-side på Seemless for å kuratere favorittinnholdet ditt.