Что вы будете делать, если вы устали от ручного ввода данных, запускать программы, написать по электронной почте и делать другие вещи в вашей Windows 8/8 .1 на компьютере?Возможно, вам нужно будет сделать перерыв и начать делать задания снова.Почему Вы не включите распознавание речи Windows,чтобы помочь вам реализовать все эти операции?Распознавание речи в Windows позволяет вам делать всё,что можно сделать с помощью мыши и клавиатуры,голосом. И если вы беспокоитесь о том,где вы можете найти распознавание речи в Windows в компьютере,этот пост покажет вам 3 способа, чтобы включить распознавание речи в Windows , и расскажет,как его отключить.

1.Три способа включения распознавания речи в Windows 8/8 .1:

Способ 1 : Включите распознавание речи в панели управления.

Шаг 1: Откройте меню быстрого доступа с помощью сочетания клавиш Windows key+X и затем выберите Панель Управления .

Шаг 2: в панели управления выберите Легкость доступа чтобы войти в него.

Шаг 3: Как только вы щёлните на легкость доступа, откроется окно, выберите Запуск распознавания речи под вариантом распознавание речи.

Способ 2 : Откройте распознавания речи в » Приложения» на экране.

Шаг 1. на начальном экране (или интерфейс Metro), правой кнопкой нажмите на значок или в любой пустой области и в нижнем правом углу выберите Все приложения .

Шаг 2: на экране приложений, найдите Распознавание Речи Windows и откройте его с помощью мыши.

Способ 3 : Включите его через панель поиска.

Шаг 1: Откройте панель поиска с помощью клавиш ключей Windows+F ивведите в пустое поле распознавание речи и выберите в списке поиска Приложения .

Шаг 2: слева от панели поиска, когда появятся результаты поиска, можно выбрать Распознавание речи Windows .

2.Два способа, чтобы выключить распознавание речи в Windows 8/8 .1

Метод 1 : Выбрать кнопка закрытия в окне распознавание речи, чтобы выключить его.

Способ 2 : Использование ключ Alt+F4 чтобы закрыть его.

Теперь вы можете чувствовать себя свободно исследуя функцию распознавания речи в Windows 8/8 .1.

im пытается создать динамический распознаватель речи, но по какой-то причине он не работает. Я попытался использовать функцию emulaterecognize, и приложение работает нормально, но это не работает, когда я говорю. это означает, что список слов правильно добавлен, а речевое распознанное событие функционирует правильно, но оно никогда не вызывается без emulaterecognize. любая помощь будет оценена по достоинству. Ниже приведен код im.

Using System; using System.Collections.Generic; using System.ComponentModel; using System.Data; using System.Drawing; using System.Linq; using System.Text; using System.Threading.Tasks; using System.Windows.Forms; using System.Speech; using System.Speech.Recognition; namespace HotKeyApp { public partial class Form1: Form { //initialize speech recognizer SpeechRecognitionEngine sre = new SpeechRecognitionEngine(new System.Globalization.CultureInfo("en-US")); //initialize grammer builder GrammarBuilder gb = new GrammarBuilder(); //choices will contain the words from the first column Choices jargon = new Choices(); //words will contain the array to give choices string words; //A speech recognition grammar is a set of rules or constraints that define what a speech recognition engine can recognize as meaningful input. Grammar g; private int columns = 2; private int rows; Dictionary HotKeys = new Dictionary(); public Form1() { InitializeComponent(); } private void Form1_Load(object sender, EventArgs e) { } private void SpeechRecognized(object sender, SpeechRecognizedEventArgs e) { MessageBox.Show("ping"); //to implement loop through the words array if the match call approporaite method for (int i = 0; i < words.Length; i++) { if (e.Result.Text == words[i]) { MessageBox.Show(words[i]); } } } private void btnCreate_Click(object sender, EventArgs e) { //get number of rows/words rows = Convert.ToInt32(txtNum.Text); //words length is equal to number of rows words = new string; GenerateTable(columns, rows); } private void GenerateTable(int columnCount, int rowCount) { //Clear out the existing row and column styles myGridView.Rows.Clear(); myGridView.Columns.Clear(); myGridView.Columns.Add("WordColumn", "Word"); myGridView.Columns.Add("HotKeyColumn", "HotKey"); //loop as many times as need to create the rows for (int y = 0; y < rowCount; y++) { myGridView.Rows.Add(); } } private void btnSubmit_Click(object sender, EventArgs e) { int i = 0; foreach (DataGridViewRow r in myGridView.Rows) { string Instructions = r.Cells.Value.ToString(); string Command = r.Cells.Value.ToString(); HotKeys.Add(Instructions, Command); words[i] = Instructions; i++; } //give jargon the words array jargon.Add(words); //give the grammer builder the jargon choices gb.Append(jargon); //build grammer, load grammer, enable voice recognition g = new Grammar(gb); sre.RequestRecognizerUpdate(); sre.LoadGrammarAsync(g); sre.SpeechRecognized += new EventHandler(SpeechRecognized); //set sre to use default audio device sre.SetInputToDefaultAudioDevice(); sre.RecognizeAsync(RecognizeMode.Multiple); MessageBox.Show("Recognition enabled"); //Register a handler for the SpeechRecognized event. //sre.EmulateRecognize("Hello"); } } }

попытался преобразовать его в консольное приложение и его работу, но мне нужно это в приложении форм Windows. вот код консоли:

Class Program { static SpeechRecognitionEngine sre; //words will contain the array to give choices static string words; static void Main(string args) { //initialize speech recognizer sre = new SpeechRecognitionEngine(new System.Globalization.CultureInfo("en-US")); //initialize grammer builder GrammarBuilder gb = new GrammarBuilder(); //choices will contain the words from the first column Choices jargon = new Choices(); //A speech recognition grammar is a set of rules or constraints that define what a speech recognition engine can recognize as meaningful input. Grammar g; string input; Console.WriteLine("Input words seperated by comma ,"); input = Console.ReadLine(); words = input.Split(new char { "," }, StringSplitOptions.RemoveEmptyEntries); foreach (string s in words) { Console.WriteLine(s); } Console.ReadKey(); //give jargon the words array jargon.Add(words); //give the grammer builder the jargon choices gb.Append(jargon); //build grammer, load grammer, enable voice recognition g = new Grammar(gb); sre.RequestRecognizerUpdate(); sre.LoadGrammarAsync(g); //set sre to use default audio device sre.SetInputToDefaultAudioDevice(); sre.SpeechRecognized += new EventHandler(SpeechRecognized); sre.RecognizeAsync(RecognizeMode.Multiple); Console.ReadLine(); } static void SpeechRecognized(object sender, SpeechRecognizedEventArgs e) { Console.WriteLine("Recognized Word"); //to implement loop through the words array if the match call approporaite method for (int i = 0; i < words.Length; i++) { if (e.Result.Text == words[i]) { Console.WriteLine(words[i]); } } } }

Друзья, на днях мы рассматривали одно из новшеств, привнесённых в Windows 10 обновлением Fall Creators Update. Поддержку голосового ввода на русском языке компания Microsoft обещает в будущем, но не уточняет, близко или далеко это будущее обозримо. Возможно, это будет тогда, когда и Кортана сможет говорить, а главное, понимать по-русски. Ждать, пока Microsoft научит Windows 10 понимать наших не стоит. Если чего-то нет в среде самой системы, это практически всегда можно реализовать за счёт сторонних программных средств. Собственно, о них мы и будем говорить в этой статье. Ниже рассмотрим различные способы, как можно с помощью встроенного в ноутбук или подключённого к ПК микрофона вводить голосом поисковые запросы и надиктовывать текст документов.

1. «Ок, Алиса» и голосовой поиск Google для поисковых запросов

Непонятно, почему компания Google до сих пор не интегрировала эту технологию в интерфейс YouTube. Но в любом случае видеоролики можно искать в самом поисковике, проговаривая ключевые запросы. Просто затем нужно будет в результатах выдачи переключаться на вкладку «Видео». Львиная доля поисковых выдач по известным причинам всё равно будет с YouTube.

Успевшим уже познакомиться с – и вовсе не нужно отправляться на сайт поисковика в окне браузера. После установки программы поисковое поле Яндекса с возможностью голосового ввода запросов появится прямо на панели задач Windows. А на редкие несложные вопросы Алиса сможет ответить и без поисковика, не выходя за пределы своего диалогового окошка.

2. Веб-сервис Web Speech API от Google

У технологии Web Speech API, посредством которой в поисковике Google реализован голосовой ввод запросов, есть свой веб-интерфейс по адресу:

https://www.google.com/intl/ja/chrome/demos/speech.html

Функционал сервиса миинималистичен: в нём присутствует кнопка включения микрофона и результирующее поле, где затем будет отображаться распознанный текст.

Но в этом результирующем поле нельзя вносить правки. По итогу получим результаты распознавания как есть. И сможем отредактировать их только в каком-то текстовом редакторе или форме ввода данных. Кнопка ниже результирующего поля «Copy and Paste» завершает текущую сессию ввода и на весь распознанный текст автоматически ставит блок выделения. Так сделано для удобства копирования в буфер.

Для распознанного текста доступна ещё одна возможность, реализованная кнопкой создания электронного письма. Она запускает почтовый клиент, установленный в среде Windows таковым по умолчанию, создаёт новое письмо и переносит в него распознанный текст.

Примечательно, что Web Speech API может распознавать некоторые знаки препинания, как минимум точку и запятую. Так что во время диктовок в местах вставки точек и запятых их можно просто проговаривать.

Отсутствие возможности редактирования текста внутри результирующего поля делает использование интерфейса Web Speech API не совсем удобным для больших объёмов набора текста. Для длительных диктовок лучше использовать веб-интерфейс сервиса «Google Документы», в который технология Web Speech API встроена. В «Google Документах» можно и вводить текст голосом, и тут же править его, и ещё попутно форматировать документ.

3. «Голосовой блокнот» на Speechpad.Ru

На базе технологии Web Speech API работает ещё сайт - самый популярный и самый функциональный в Рунете сервис голосового ввода данных «Голосовой блокнот». В числе основных его функций:

  • Поддержка нескольких языков, включая русский и украинский;
  • Результирующее поле распознавания голоса с возможностью правки текста, его перевода на другие языки, выгрузки результатов в TXT-файл;
  • Вывод распознанных фраз в буфер обмена;
  • Транскрибация;
  • Интеграция в веб-формы Chromium-браузеров;
  • Интеграция в среду Windows и Linux.

Плюс к этому всему, в «Голосовом блокноте» опция ввода голоса включается и отключается только по нажатию соответствующей кнопки. Эта опция не деактивируется сама по себе, как только мы на время призадумаемся в поисках точной формулировки мысли, как это происходит в прочих сервисах на базе Web Speech API.

И отслеживаем в результирующем поле распознанный текст.

4. Интеграция Speechpad в веб-формы браузера

После внедрения этого расширения в контекстном меню веб-форм ввода текста появится пункт «Speechpad». Жмём эту кнопку и говорим в микрофон. Таким образом можем, например, надиктовывать заметки в Google Keep.

5. Интеграция Speechpad в среду Windows

Возможности веб-сервиса «Голосовой блокнот» можно интегрировать в среду Windows. И осуществлять набор текста голосом в любой программе операционной системы – штатном блокноте, Microsoft Word, прочих текстовых редакторах. Распознанная речь без посредничества веб-сервисов или буфера обмена будет вставляться прямо в редактируемые документы. Однако такая функция Speechpad.Ru не бесплатна, и стоит она 100 руб. в месяц. Предусматриваются варианты экономии: при оплате услуг сразу за квартал стоимость будет составлять 250 руб., а предоплата за год обойдётся в 800 руб. Каждый зарегистрированный пользователь может прежде протестировать интегрированный в среду своей операционной системы функционал сервиса. Создатели Speechpad.Ru предлагают двухдневный тестовый период бесплатно. Как непосредственно осуществляется интеграция «Голосового блокнота» в операционные системы, в частности, в Windows, подробно описывается на сайте самого Speechpad.Ru. Кликаем знак вопроса возле опции интеграции.

И проходим все описываемые в инструкции шаги:

  • Устанавливаем вышеупомянутое расширение сервиса;
  • Скачиваем пакет файлов интеграции;
  • Распаковываем архив и запускаем файл install_host.bat;
  • На сайте Speechpad.Ru заходим в кабинет пользователя;

Жмём кнопку «Включить тестовый период».

И так каждый раз, когда нужно активировать голосовой ввод. Вот, собственно, и всё. Теперь можно открывать Microsoft Word, LibreOffice Writer, прочие текстовые редакторы и начинать диктовку. Распознанный текст будет появляться в окне любого активного приложения, поддерживающего ввод данных.

Важно: чтобы использовать интегрированный в систему Speechpad, нельзя закрывать вкладку его сайта в окне браузера. Закрытие последней деактивирует голосовой ввод.

5. Бесплатные альтернативы интеграции голосового ввода в среду Windows

Какие могут быть бесплатные альтернативы интеграции в среду Windows русскоязычного голосового ввода данных?

Вариант №1

Совершенно бесплатно на сайте Speechpad.Ru можно использовать опцию вывода распознанной речи в буфер обмена. Жмём на сайте кнопку «Включить запись» и перемещаемся в любое приложение Windows.

Теперь можем проговаривать отдельные фразы и вставлять их из буфера клавишами Ctrl+V. Как только сделаем паузу в речи, услышим писк Speechpad, свидетельствующий о том, что фраза распознана и скопирована в буфер обмена. Такой способ работы с голосовым вводом имеет свои преимущества: при вставке отдельных фраз можно попутно редактировать текст начисто.

Вариант №2

Работающим с приложениями офисного пакета компания Microsoft может предложить свою наработку по внедрению голосового ввода – надстройку Dictate, интегрирующую в Word, Outlook и PowerPoint дополнительную вкладку меню с инструментом распознавания речи. Надстройка может распознавать речь на 20 языках, включая русский, и позволяет попутно переводить текст на 60 языков.

Ещё один бесплатный способ голосового ввода текста – запись речи в аудиофайл с дальнейшей автоматической транскрибацией (расшифровкой в текст). Далеко на каждый может сразу изложить свои мысли структурированным литературным языком, да ещё и попутно править ошибки распознавания, проставлять знаки препинания. При записи же речи на диктофон можно полностью сконцентрироваться на сути излагаемого материала, а в процессе транскрибации уже всю концентрацию внимания направить на красноречие и грамотность подачи этого материала. Но, друзья, автоматизация транскрибации аудиозаписей – это тема уже другой, отдельной статьи.

Продолжение в статьях:

  • Перевод

С тех пор, как на сцену распознавания речи вышло глубинное обучение, количество ошибок в распознавании слов кардинально уменьшилось. Но, несмотря на все те статьи, которые вы могли читать, у нас до сих пор нет распознавания речи человеческого уровня. У распознавателей речи много видов отказов. Для дальнейшего улучшения их нужно выделить и постараться устранить. Это единственный способ перейти от распознавания, подходящего для некоторых людей большую часть времени, к распознаванию, работающему для всех людей всё время.

Улучшения в количестве ошибочно распознанных слов. Тестовый голосовой набор был собран на телефонном коммутаторе в 2000 году из 40 случайных разговоров двух человек, чей родной язык – английский

Говорить о том, что мы достигли уровня человека в распознавании речи в разговорах, основываясь лишь на наборе разговоров с телефонного коммутатора, это всё равно, что утверждать, что робомобиль водит не хуже человека, протестировав его в единственном городе в солнечный день без всякого уличного движения. Произошедшие в деле распознавания речи в последнее время сдвиги удивительны. Но заявления по поводу распознавания речи на уровне человека слишком смелы. Вот несколько областей, в которых всё ещё необходимо добиваться улучшений.

Акценты и шум

Один из очевидных недостатков распознавания речи – обработка акцентов и фонового шума. Основная причина этого в том, что большая часть тренировочных данных состоит из американского говора с высоким отношением сигнала к шуму. К примеру, в наборе разговоров с телефонного коммутатора есть только беседы людей, чей родной язык – английский (по большей части, это американцы) с небольшим фоновым шумом.

Но увеличение тренировочных данных само по себе, скорее всего, не решит эту проблему. Существует множество языков, содержащих много диалектов и акцентов. Нереально собрать размеченные данные для всех случаев. Создание высококачественного распознавателя речи только для американского английского требует до 5 тысяч часов аудиозаписей, переведённых в текст.


Сравнение людей, занимающихся преобразованием речи в текст, с Baidu’s Deep Speech 2 на разных типах речи. Люди хуже справляются с распознаванием неамериканских акцентов – возможно, из-за обилия американцев среди них. Думаю, что люди, выросшие в определённом регионе, с гораздо меньшим количеством ошибок справились бы с распознаванием акцента этого региона.

При наличии фонового шума в движущейся машине отношение сигнал/шум может достигать величин в -5 дБ. Люди легко справляются с распознаванием речи другого человека в таких условиях. Автоматические распознаватели гораздо быстрее ухудшают показатели с увеличением шума. На графике видно, как сильно увеличивается отрыв людей при увеличении шума (при низких значениях SNR, signal-to-noise ratio)

Семантические ошибки

Часто количество ошибочно распознанных слов не является самоцелью системы распознавания речи. Мы нацеливаемся на количество семантических ошибок. Это та доля выражений, у которых мы неправильно распознаём смысл.

Пример семантической ошибки – когда кто-то предлагает «let’s meet up Tuesday» [давайте встретимся во вторник] а распознаватель выдаёт «let’s meet up today» [давайте встретимся сегодня]. Бывают и ошибки в словах без семантических ошибок. Если распознаватель не распознал «up» и выдал “let’s meet Tuesday”, семантика предложения не изменилась.

Нам нужно аккуратно использовать количество ошибочно распознанных слов в качестве критерия. Для иллюстрации этого я дам вам пример с наихудшим из возможных случаев. 5% ошибок в словах соответствует одному пропущенному слову из 20. Если в каждом предложении 20 слов (что для английского языка вполне в рамках среднего), то количество неправильно распознанных предложений приближается к 100%. Можно надеяться на то, что неправильно распознанные слова не меняют семантический смысл предложений. А иначе распознаватель может неправильно расшифровать каждое предложение даже с 5% количеством ошибочно распознанных слов.

Сравнивая модели с людьми важно проверять суть ошибок и следить не только за количеством неправильно распознанных слов. По моему опыту, люди, транслирующие речь в текст, делают меньше ошибок и они не такие серьёзные, как у компьютеров.

Исследователи из Microsoft недавно сравнили ошибки людей и компьютерных распознавателей схожего уровня. Одно из найденных различий – модель путает “uh” [э-э-э…] с “uh huh” [ага] гораздо чаще людей. У двух этих терминов очень разная семантика: “uh” заполняет паузы, а “uh huh” обозначает подтверждение со стороны слушателя. Также у моделей и людей обнаружили много ошибок совпадающих типов.

Много голосов в одном канале

Распознавать записанные телефонные разговоры проще ещё и потому, что каждого говорящего записывали на отдельный микрофон. Там не происходит наложения нескольких голосов в одном аудиоканале. Люди же могут понимать нескольких ораторов, иногда говорящих одновременно.

Хороший распознаватель речи должен уметь разделять аудиопоток на сегменты в зависимости от говорящего (подвергать его диаризации). Также он должен извлечь смысл из аудиозаписи с двумя накладывающимися друг на друга голосами (разделение источников). Это необходимо делать без микрофона, расположенного прямо у рта каждого из спикеров, то есть так, чтобы распознаватель работал хорошо, будучи размещённым в произвольном месте.

Качество записи

Акценты и фоновый шум – всего два фактора, к которым распознаватель речи должен быть устойчив. Вот ещё несколько:

Реверберация в разных акустических условиях.
Артефакты, связанные с оборудованием.
Артефакты кодека, используемого для записи и сжатия сигнала.
Частота дискретизации.
Возраст говорящего.

Большинство людей не отличат на слух записей из mp3 и wav-файлов. Прежде чем заявлять о показателях, сравнимых с человеческими, распознаватели должны стать устойчивыми и к перечисленным источникам вариаций.

Контекст

Можно заметить, что количество ошибок, которые люди делают на тестах в записях с телефонной станции, довольно высоко. Если бы вы беседовали с другом, который не понимал бы 1 слово из 20, вам бы было очень сложно общаться.

Одна из причин этого – распознавание без учёта контекста. В реальной жизни мы используем множество разных дополнительных признаков, помогающих нам понимать, что говорит другой человек. Некоторые примеры контекста, используемые людьми, и игнорируемые распознавателями речи:

История беседы и обсуждаемая тема.
Визуальные подсказки о говорящем – выражения лица, движение губ.
Совокупность знаний о человеке, с которым мы говорим.

Сейчас у распознавателя речи в Android есть список ваших контактов, поэтому он умеет распознавать имена ваших друзей . Голосовой поиск на картах использует геолокацию , чтобы сузить количество возможных вариантов, до которых вы хотите построить маршрут.

Точность систем распознавания увеличивается с включением в данные подобных сигналов. Но мы только начинаем углубляться в тип контекста, который мы могли бы включить в обработку и в методы его использования.

Развёртывание

Последние достижения в распознавании разговорной речи невозможно развернуть. Представляя себе развёртывание алгоритма распознавания речи, нужно помнить о задержках и вычислительных мощностях. Эти параметры связаны, поскольку алгоритмы, увеличивающие требования к мощности, увеличивают и задержку. Но для простоты обсудим их по отдельности.

Задержка: время от окончания речи пользователя и до окончания получения транскрипции. Небольшая задержка – типичное требование для распознавания. Она сильно влияет на ощущения пользователя от работы с продуктом. Часто встречается ограничение в десятки миллисекунд. Это может показаться слишком строгим, но вспомните, что выдача расшифровки - это обычно первый шаг в серии сложных вычислений. К примеру, в случае голосового интернет-поиска после распознавания речи нужно ещё успеть выполнить поиск.

Двунаправленные рекуррентные слои – типичный пример улучшения, ухудшающего ситуацию с задержкой. Все последние результаты расшифровки высокого качества получаются с их помощью. Проблема только в том, что мы не можем ничего подсчитывать после прохода первого двунаправленного слоя до тех пор, пока человек не закончил говорить. Поэтому задержка увеличивается с длиной предложения.


Слева: прямая рекуррентность позволяет начинать расшифровку сразу. Справа: двунаправленная рекуррентность требует подождать окончания речи перед тем, как начинать расшифровку.

Хороший способ эффективно включать будущую информацию в распознавание речи пока ещё ищут.

Вычислительная мощность: на этот параметр влияют экономические ограничения. Необходимо учитывать стоимость банкета для каждого улучшения точности распознавателя. Если улучшение не достигает экономического порога, развернуть его не получится.

Классический пример постоянного улучшения, которое никогда не развёртывают – совместное глубинное обучение . Уменьшение количества ошибок на 1-2% редко оправдывает увеличение вычислительных мощностей в 2-8 раз. Современные модели рекуррентных сетей тоже попадают в эту категорию, поскольку их очень невыгодно использовать в поиску по пучку траекторий, хотя, думаю, в будущем ситуация поменяется.

Хочу уточнить – я не говорю, что улучшение точности распознавания с серьёзным увеличением вычислительных затрат бесполезно. Мы уже видели, как в прошлом работает принцип «сначала медленно, но точно, а затем быстро». Смысл в том, что до тех пор, пока улучшение не станет достаточно быстрым, использовать его нельзя.

В следующие пять лет

В области распознавания речи остаётся ещё немало нерешённых и сложных проблем. Среди них:

Расширение возможностей новых систем хранения данных, распознавания акцентов, речи на фоне сильного шума.
Включение контекста в процесс распознавания.
Диаризация и разделение источников.
Количество семантических ошибок и инновационные методы оценки распознавателей.
Очень малая задержка.

С нетерпением жду прогресса, который будет достигнут в следующие пять лет по этим и другим фронтам.

Теги: Добавить метки

Функции распознавания текста и речи, на мой взгляд одни из самых удобных специальных возможностей Windows 8.1. И не только удобных, но и легких в настройках. Вообще-то Windows 8.1 распознает рукописный текст довольно хорошо и с настройками по умолчанию, но, если вас что-то не устраивает, можно провести и некоторое дополнительное обучение.

Откройте опции раздела «Язык » на панели управления, выделите язык, который вы хотите обучить, и щелкните по ссылке «Параметры » с правой от него стороны.

Появится учебное окно. Здесь можно выбрать нужное действие: переобучить Windows, если она делает конкретные ошибки распознавания текста или обучить именно своему почерку. Отметьте, что вторая опция может потратить много времени на обучение.

Распознавание речи в Windows 8.1.

Windows 8.1 позволяет Вам управлять своим ПК голосом, используя для этого встроенный в планшет, ноутбук, или ультрабук микрофон, или внешнюю гарнитуру. Доступ к опции распознавания речи можно получить на стартовом экране, прописав в строку поиска словосочетание распознавание речи, где вас спросят, какое аудио устройство вы хотите использовать.

Дальше вам зададут серию вопросов, после которых предложат ознакомится с обучающим руководством. Выполнение шагов из этого руководства значительно облегчает обучение Windows. Лучше потратить некоторое время и обучить Windows 8.1 распознавать конкретно вашу речь.

Вам предложат просмотреть справку, распечатка которой может быть очень полезна для запоминания различных голосовых команд. Во время работы, распознаватель речи плавает на рабочем столе и может быть закреплен в верхней или нижней части экрана.

В принципе программа распознавания речи в Windows 8.1 работает превосходно.

Получить доступ ко всем средствам управления устройства распознавания речи достаточно легко, просто щелкните правой кнопкой по его окну.

Там вы увидите опции для продолжения обучения устройства, конфигурирования как его, так и вашего микрофона.

Основные средства управления распознаванием речи:

  • Запускать по названию программы, например, слова Калькулятор, Word или Excel, запускают соответствующую программу
  • Переключать по названию программы, переключает на программу, если она уже запущена.
  • Вы можете управлять программами имеющими выпадающие меню, говоря название меню и затем название нужной опции. Эта функция также работает на ленточных элементах управления в Windows 8.1, Microsoft Office, и других использующих их программах.
  • Показывать номера, выводит на экран наложенные на средства управления номера, которые в дальнейшем можно называть для их активации.
  • На веб-странице можно перейти по ссылке, просто назвав ее; например, связаться с нами.
  • Можно активировать щелчок по элементу, говоря двойной щелчок или альтернативно щелчок правой кнопкой по определенному элементу; например, корзина двойной щелчок.
  • Начать прослушивание/остановить, включает или выключает систему распознавания речи.
  • Что я могу сказать? Выведет на экран справку.
  • Показать речевые опции, выводит на экран список опций для речевого устройства распознавания; также доступно щелчком правой кнопкой.
  • Показать/скрыть распознавание речи, устройство распознавания речи будет минимизироваться в системный трей или возвращаться на рабочий стол.

Если устройство речевого распознавания не распознает что-то, оно выводит на экран «Панель альтернатив », где содержатся лучшие предположения сказанного. Можно сделать выбор из них, сказав для этого номер слева от правильного элемента. Это также поможет обучать системы распознавания речи Windows 8.1.

Используя функции распознавания текста и речи вы на много облегчите вашу работу, сделав ее выполнение более удобным и быстрым. Например, функция рукописного текста позволяет вводить текст от руки, что очень удобно на мобильных устройствах. А распознавания речи, управлять ПК голосом.