Jeg har brukt tale-til-tekst med AI/produktivitetsverktøyene mine i det siste, og jeg kan ikke gå tilbake. Ikke fordi jeg er lat, men fordi jeg endelig innså hvor helt vanvittig det er at vi har brukt de siste 40 årene på å tvinge oss selv til å oversette tanker til fingerbevegelser på små plastfirkanter. Tenk på det.... Når du har en idé, eksisterer den i hodet ditt som språk. Ord, setninger, begreper. Men for å få det inn i en datamaskin, må du dele det opp i individuelle bokstavtrykk, jakte og hakke over et tastatur, og hele tiden avbryte flyten for å fikse skrivefeil og formatering. Det er som å ha en samtale gjennom morsekode. Jeg pleide å tro at stemmegrensesnitt var gimmicky. Siri var frustrerende, dikteringsprogramvaren var klønete, og det føltes rart å snakke med datamaskinen din. Jeg skjønte det ærlig talt ikke. Men noe endret seg i løpet av de 4 månedene. AI forstår faktisk kontekst nå. Det skjønner hva jeg mener, ikke bare hva jeg sa. Og jeg kan gjøre ting mens jeg er på farten. I går brukte jeg stemme med claude-kode for å spinne opp underagenter som designer, koder og markedsfører appen min. Jeg snakket bokstavelig talt bare med datamaskinen min og fortalte den hva jeg ville bygge, og den koordinerte et helt team av AI-arbeidere for å få det til. Ingen skriving, ingen klikking gjennom grensesnitt, ingen administrasjon av forskjellige verktøy. Det føltes som om fremtiden endelig kom. Vi beveger oss fra en verden der mennesker måtte lære dataspråk til en verden der datamaskiner lærte menneskelig språk. Og ærlig talt, jeg er her for det. Hvis taleinndata går fra 0,1 % til 10 % (ikke gal ...) av alle datamaskininteraksjoner i løpet av de neste årene, blir hvert grensesnitt vi kjenner foreldet over natten. Hele programvareindustrien må gjenoppbygges rundt samtale, ikke klikk. Ville ikke bli overrasket over å se det skje. Hva tror du?
90,07K