Ostatnio korzystałem z funkcji rozpoznawania mowy w moich narzędziach AI/produktywności i nie mogę wrócić do starego sposobu. Nie dlatego, że jestem leniwy, ale dlatego, że w końcu uświadomiłem sobie, jak absolutnie szalone jest to, że przez ostatnie 40 lat zmuszaliśmy się do tłumaczenia myśli na ruchy palców na małych plastikowych kwadratach. Pomyśl o tym... kiedy masz pomysł, istnieje on w twojej głowie jako język. Słowa, zdania, koncepcje. Ale żeby wprowadzić to do komputera, musisz to rozłożyć na pojedyncze naciśnięcia liter, szukając i stukając po klawiaturze, nieustannie przerywając swój tok myślenia, aby poprawić błędy i formatowanie. To jak prowadzenie rozmowy przez kod Morse'a. Kiedyś myślałem, że interfejsy głosowe są tylko chwytami marketingowymi. Siri była frustrująca, oprogramowanie do dyktowania było nieporęczne, a rozmowa z komputerem wydawała się dziwna. Szczerze mówiąc, nie rozumiałem tego. Ale coś się zmieniło w ciągu ostatnich 4 miesięcy. AI naprawdę rozumie kontekst. Rozumie, co mam na myśli, a nie tylko to, co powiedziałem. I mogę robić rzeczy w ruchu. Wczoraj użyłem głosu z kodem Claude, aby uruchomić podagentów, którzy projektują, kodują i promują moją aplikację. Dosłownie rozmawiałem z moim komputerem i powiedziałem mu, co chcę zbudować, a on skoordynował cały zespół pracowników AI, aby to zrealizować. Żadnego pisania, żadnego klikania przez interfejsy, żadnego zarządzania różnymi narzędziami. Czułem, że przyszłość w końcu nadeszła. Przechodzimy z świata, w którym ludzie musieli uczyć się języka komputerowego, do świata, w którym komputery uczą się języka ludzkiego. I szczerze mówiąc, jestem za tym. Jeśli wprowadzenie głosowe wzrośnie z 0,1% do 10% (nie jest to szalone...) wszystkich interakcji z komputerem w ciągu najbliższych kilku lat, każdy interfejs, który znamy, stanie się przestarzały z dnia na dzień. Cała branża oprogramowania będzie musiała się przebudować wokół rozmowy, a nie kliknięć. Nie zdziwiłbym się, gdyby to się stało. Co o tym myślisz?
90,08K