reboot, now!
microsoft nie przestaje mnie zadziwiać. w nowej viście jest ficzer pod tytułem rozpoznawanie mowy. no i za jego pomocą można nie tylko dyktować tekst w wordzie ale i wydawać polecenia systemowi. no i skucha polega na tym że nie są odfiltrowywane dźwięki które komputer sam wydaje przez własne głośniki...
7 komentarzy:
"Someone else responded that Apple tried similar functionality 15 years ago and quickly realized that they had to guard the feature with a keyword that needed to be spoken because people were playing gags with the "shutdown" command."
:)
wiesz, magicword czy konieczność przytrzymania jakiegoś klawisza to jedno - eliminuje przypadkowe uaktywnienie dźwiękami z otoczenia, ale żeby była możliwość że komputer sam sobie wydaje polecenia głosowe to już totalny matrix jest.
Komendy głosowe istnieją od dawna w komórkach - z moich licznych znajomych używa ich jeden. Ale on miał słuchawkę na blututu, zanim wynaleziono blututa.
Zacytowałem to, bo po prostu uwielbiam taką ironię: Apple ruszało ten temat 15 lat temu, ale zarzucili sprawę, bo fuck it, więcej z tego szkody niż pożytku. A po 15 latach masz w nowych windows feature.
ja też używam wyłącznie jak mam blututu na uchu.
a co do anegdotki: na mój gust to jeden z tych tekstów jakim sobie makówkarze poczucie wartości poprawiają. coś jak megahertz myth. 15 lat temu to właśnie 'sosumi' powstawało i samo wydawanie dźwięków było sporym osiągnięciem dla maka.
No, bo my biedni makówkarze cały czas musimy się dowartościowywać. Jakbyś ty pracował na takiej niewydajnej, awaryjnej i drogiej maszynie, też byś tak miał...
:) oczywiście. jakbym dwukrotnie przepłacił za złoma tylko dlatego że ma kulowy dizajn to musiałbym jakąś legendę sobie stworzyć.
ale ciekawe jest to że mówisz że też awaryjnej. myślałem że chociaż się nie psują :P
a tak na serio, pomyśl, 90-92 rok, maki jeszcze na motorolach, właśnie przeskoczyły na 32bity, kolor i system7. wyobrażasz sobie że ktoś na serio myśli o komendach głosowych? w 90 albo 91 pojawił się dragondictate (jak wszystko fajne odprysk darpa-y) - pierwszy rozsądny program do rozpoznawania mowy, licencja kosztowała kilka k$. zresztą z tego co pamiętam parę lat później wypuścili port na powermaki.
A tak na serio: w 1990 roku Apple zatrudnia specjalistów od systemów rozpoznawania mowy do pracy nad projektem o nazwie Casper. W 1991 pojawia się System 7. W 1993 roku PlainTalk jest już częścią systemu - 7.1.2 bodajże.
I tu cytacik:
"Apple's speech recognition is voice-command oriented, i.e. not intended for dictation. It can be configured to listen for commands only when a hot key is pressed, or after being addressed with an activation phrase such as "Computer," or "Macintosh,". A graphical status monitor, often in the form of an animated character, provides visual and textual feedback about listening status, available commands and actions taken. It can also communicate back with the user using speech synthesis."
Prześlij komentarz