Saul  Alaniz

Saul Alaniz

1657034718

Agregar Soporte De Voz A Texto Y De Texto A Voz En Flutter

Una función de voz a texto convierte su voz en texto y una función de texto a voz lee el texto en voz alta. Al agregar esta función, los usuarios pueden interactuar con su aplicación a través de la voz (además de los gestos del usuario), mejorando la experiencia del usuario. Esto puede ayudarlo a crear, en esencia, una aplicación similar a un asistente de Google.

La forma en que funciona es que usted dice algo o le pregunta algo a la aplicación, y la aplicación procesa su solicitud y luego dice el resultado.

En este tutorial, construiremos un ejemplo utilizando el complemento de reconocimiento de voz y texto a voz .

Pasaremos por un proceso paso a paso para el ejemplo que le brinda una base para crear una aplicación de asistente de voz. También cubriremos los casos que el complemento no maneja de forma predeterminada, como la escucha continua en dispositivos Android.

Así es como se ve cuando se completa:

Ejemplo de aplicación de voz a texto completada

Agregar voz a texto en una aplicación Flutter

En la aplicación de ejemplo, cuando un usuario toca el botón del micrófono, la aplicación comienza a escuchar. Cuando el usuario comienza a hablar, la voz se convierte en texto y se muestra en la pantalla. Los usuarios pueden detener el servicio de escucha haciendo clic en el botón de detener.

Puede implementar dicho requisito utilizando el complemento de reconocimiento de voz . Internamente, utiliza Speech API para iOS y SpeechRecognizer para Android. Le permite agregar reconocimiento de voz para cualquier configuración regional con dispositivos compatibles con iOS10+ y Android 4.1+.

Este complemento ofrece varios métodos útiles que puede usar para iniciar, detener y cancelar la escucha.

 

Aquí están las instrucciones paso a paso sobre cómo agregar el soporte de voz a texto:

Paso 1: agregar dependencias

El primer paso comienza con agregar dependencia dentro del pubspec.yamlarchivo.

El contenido dentro del pubspec.yamlarchivo debería verse así:

dependencies:
  flutter:
    sdk: flutter
  cupertino_icons: ^1.0.2
  speech_recognition: ^0.3.0+1 #NEW

Paso 2: Agregar permisos

Para que el complemento grabe audio, debe otorgar permiso para la plataforma Android e iOS. Para ello, puede actualizar los archivos específicos de la plataforma.

Para Android

Ubique el AndroidManifest.xmlarchivo en your_project/android/app/src/main/AndroidManifest.xml y actualice el archivo de la siguiente manera:

<manifest xmlns:android="http://schemas.android.com/apk/res/android"
    package="com.example.speech_to_text_demo">

    <!-- 1. Permission -->
    <uses-permission android:name="android.permission.RECORD_AUDIO" />

    <!-- 2. To overcome bind to recognition service failed issue -->
    <queries>
        <package android:name="com.google.android.googlequicksearchbox"/>
    </queries>


   <application
        android:label="speech_to_text_demo"
        android:name="${applicationName}"
        android:icon="@mipmap/ic_launcher">
        <activity
            android:name=".MainActivity"
            android:exported="true"
            android:launchMode="singleTop"
            android:theme="@style/LaunchTheme"
            android:configChanges="orientation|keyboardHidden|keyboard|screenSize|smallestScreenSize|locale|layoutDirection|fontScale|screenLayout|density|uiMode"
            android:hardwareAccelerated="true"
            android:windowSoftInputMode="adjustResize">
    </application>
</manifest>

Esto es lo que está pasando en el código anterior:

  1. Agregar android.permission.RECORD_AUDIOpara grabar audio
  2. Esto lo ayuda a solucionar el "problema fallido de vinculación al servicio de reconocimiento" en algunos dispositivos Android.

para iOS

Ubique el info.plistarchivo en your_project/ios/Runner/info.plist y agregue los siguientes permisos:

<key>NSMicrophoneUsageDescription</key>
<string>This application needs to access your microphone</string>
<key>NSSpeechRecognitionUsageDescription</key>
<string>This application needs the speech recognition permission</string>

(Nota: los permisos anteriores mostrarán un mensaje al usuario antes de iniciar el reconocimiento de voz)

Paso 3: Agregar variables requeridas

En este paso, agregará las variables necesarias para mantener el estado de la aplicación. Por ejemplo, debe necesitar una variable para saber si se inicia el reconocimiento de voz. Estos serán útiles para mostrar y ocultar widgets en función de diversas situaciones.

Aquí hay algunas variables vitales que necesita:

// 1.
late SpeechRecognition _speech;
// 2.
bool _isSpeechStarted = false;
// 3.
bool _isListening = false;
// 4.
String transcription = '';
String currentText = '';
// 5.
bool _isEndOfSpeech = false;
  1. Esto se usará para crear la instancia SpeechRecognitiony luego acceder a ella para comenzar y detener la escucha.
  2. Esto se usará para mostrar/ocultar los botones de micrófono y parada.
  3. Esto se usará para mostrar/ocultar el texto 'Escuchando...'. Aunque podemos usar la variable anterior (ie _isSpeechStarted), esta variable es útil para saber si el usuario realmente está hablando
  4. Esto es para saber que el reconocimiento de voz se ha detenido.

Paso 4: Creación de la interfaz de usuario de la página

La interfaz de usuario de la página consta de dos secciones principales. La primera sección muestra la conversación entre el asistente de voz y el usuario; y la segunda sección muestra el área para iniciar y detener el reconocimiento de voz.

Así es como se ve el código mínimo para esto:

SafeArea(
  child: Scaffold(
    backgroundColor: Colors.white,
    bottomNavigationBar: Container(
      height: 200,
      color: Colors.white,
      child: Column(
        mainAxisAlignment: MainAxisAlignment.spaceEvenly,
        children: [
          // 1. <-- SEE HERE
          if (!_isSpeechStarted) ...[
            FloatingActionButton(
              backgroundColor: const Color(0xff764abc),
              child: Icon(
                Icons.mic,
                size: 35,
              ),
              onPressed: () {
                _startSpeechRecognition();
              },
            ),
          ] else ...[
            FloatingActionButton(
              backgroundColor: const Color(0xff764abc),
              child: Icon(
                Icons.stop,
                size: 35,
              ),
              onPressed: () {
                _stopSpeechRecognition();
              },
            ),
          ],
          // 2. <-- SEE HERE
          if (_isListening) ...[
            Text(
              kListening,
              style: GoogleFonts.nunito(
                  textStyle:
                      TextStyle(color: Colors.black, fontSize: 22.5)),
            ),
          ],
        ],
      ),
    ),
    appBar: AppBar(
      title: Text('Voice Assistant'),
      backgroundColor: const Color(0xff764abc),
    ),
    body: Container(
      padding: EdgeInsets.all(16),
      child: SingleChildScrollView(
        child: Column(
          children: [
            SizedBox(
              height: 10,
            ),
            Row(
              mainAxisAlignment: MainAxisAlignment.end,
              children: [
                Text(
                  _ttsGreet,
                  style: GoogleFonts.poppins(
                    textStyle: TextStyle(
                        fontSize: 30.5, fontWeight: FontWeight.bold),
                  ),
                ),
              ],
            ),
            // 3. <-- SEE HERE
            TextField(
              controller: _myController,
              readOnly: true,
              onChanged: (String text) {
                setState(() {
                  _isContentsPresent = text.isNotEmpty;
                });
              },
              //focusNode: _nodeText1,
              cursorColor: Colors.grey,
              style:
                  GoogleFonts.poppins(textStyle: TextStyle(fontSize: 30.5)),
              keyboardType: TextInputType.multiline,
              maxLines: null,
              decoration: InputDecoration(
                border: InputBorder.none,
                hintStyle: GoogleFonts.nunito(),
              ),
            ),
          ],
        ),
      ),
    ),
  ),
);

Aquí hay un resumen rápido del código anterior:

  1. Esta parte contiene dos FloatingActionButtons ; uno para iniciar el reconocimiento de voz y otro para detenerlo. Pero, solo se muestra uno basado en la _isSpeechStartedvariable
  2. Esto se usa para mostrar/ocultar el texto 'Escuchando...'
  3. El resultado de voz a texto (comando de voz del usuario real) se muestra aquí. Aquí, TextFieldel widget se usa en lugar del Textwidget para permitir que los usuarios editen el comando de voz (si es necesario)

Aquí se explica cómo codificar traducido al diseño:

Diseño de código traducido

Paso 5: agregar métodos de reconocimiento de voz

Después de configurar las variables y la interfaz de usuario de la página, es hora de llamar a los métodos del complemento que son responsables de impulsar la función de reconocimiento de voz.

A continuación se muestran algunos de los métodos importantes que utilizará para iniciar y detener el servicio de reconocimiento.

// 1.
void _activateSpeechRecognizer() {
  _requestPermission();
  _speech = new SpeechRecognition();
  _speech.setAvailabilityHandler(onSpeechAvailability);
  _speech.setRecognitionStartedHandler(onRecognitionStarted);
  _speech.setRecognitionResultHandler(onRecognitionResult);
  _speech.setRecognitionCompleteHandler(onRecognitionComplete);
  _speech
      .activate()
      .then((res) => setState(() => _speechRecognitionAvailable = res));
}
// 2.
void onRecognitionResult(String text) {
  if (_isEndOfSpeech) {
    _isEndOfSpeech = false;
    return;
  }
  setState(() {
    transcription = text;
    _isListening = true;
    print('recognized text is- $transcription');
    _myController.text = transcription;
    _myController.selection = TextSelection.fromPosition(
        TextPosition(offset: _myController.text.length));
  });
}
// 3.
void onRecognitionComplete() {
  print('Recognition Completed');

  if (transcription.isNotEmpty) {
    _isContentsPresent = true;
    _processRequest(transcription);
    _toggleSpeechRecognitionStatus(isSpeechStarted: false);
  }
}
  1. Esto activa el reconocedor de voz en segundo plano. Esto debe llamarse tan pronto como se cargue la página.
  2. Esto genera el resultado del reconocimiento en el TextFieldwidget.
  3. Esto se llamará cuando el usuario termine de proporcionar el comando de voz. Aquí puede tomar la transcripción (voz convertida en texto) y realizar la lógica comercial o lo que quiera hacer con la transcripción.

¡Impresionante! ahora sabe cómo agregar soporte de voz a texto. Supongamos que ha procesado la solicitud y es hora de hablar sobre el resultado. Vamos a ver echar un vistazo a cómo hacer eso.

Agregar texto a voz en una aplicación Flutter

En la aplicación de ejemplo, después de mostrar el comando de voz del usuario en la pantalla, el comando de voz se procesa y el asistente de voz lee el resultado (además de mostrarlo en la pantalla).

Puede implementar dicho requisito utilizando el complemento de texto a voz (TTS). Funciona en iOS, Android, web y macOS. Con este complemento, también puede cambiar el volumen , la velocidad y el tono de la voz.

Aquí están las instrucciones paso a paso para agregar el soporte de texto a voz:

Paso 1: agregar dependencias

Agregue la dependencia de texto a vozpubspec.yaml dentro del archivo.

El contenido dentro del pubspec.yamlarchivo debería verse así:

dependencies:
  flutter:
    sdk: flutter
  cupertino_icons: ^1.0.2
  speech_recognition: ^0.3.0+1 
  text_to_speech:  #NEW

Paso 2: Agregar permisos

Para que el complemento pronuncie el texto, solo necesita habilitar el permiso para la plataforma Android.

Este es el AndroidManifest.xmlaspecto que debería tener el archivo (ubicado en your_project/android/app/src/main/AndroidManifest.xml):

<manifest xmlns:android="http://schemas.android.com/apk/res/android"
    package="com.example.speech_to_text_demo">

    <queries>
        <package android:name="com.google.android.googlequicksearchbox"/>
        <intent>
            <action android:name="android.intent.action.TTS_SERVICE" />
        </intent>
    </queries>

   <application
    </application>
</manifest>

Paso 3: Agregar variables requeridas

En este paso, agregará las variables necesarias para iniciar y pasar el mensaje al servicio TTS (texto a voz).

Aquí hay algunas variables que necesita:

// 1.
TextToSpeech tts = TextToSpeech();
// 2.
String _ttsGreet = 'How may I help you?';
// 3.
String _ttsStaticResult = 'Its very hot today';
  1. Esto creará la instancia de TextToSpeech, que puede usar para activar el servicio TTS
  2. Este es un mensaje de bienvenida que se muestra después de cargar la página
  3. Esto para mostrar y pronunciar un mensaje ficticio

Paso 4: Creación de la interfaz de usuario de la página

La interfaz de usuario de la página simplemente muestra un mensaje de saludo y un mensaje que responde a la consulta del usuario en un widget de texto (debajo de la consulta del usuario).

En aras de la simplicidad, la interfaz de usuario de la página se mantiene simple. Puede extender esto y usar ListView para crear una interfaz de usuario flexible que mejor se adapte a sus requisitos.

El código se ve así:

if (_isShowResult)
  Row(
    mainAxisAlignment: MainAxisAlignment.end,
    children: [
      Text(
        _ttsStaticResult,
        //textAlign: TextAlign.end,
        style: GoogleFonts.poppins(
          textStyle: TextStyle(
              fontSize: 30.5, fontWeight: FontWeight.bold),
        ),
      ),
    ],
  ),

Ejemplo de interfaz de usuario de página

Paso 5: Agregar texto

Si configuró las variables y la interfaz de usuario de la página, puede activar el discurso después de procesar la consulta del usuario llamando al speak()método en la instancia del archivo TextToSpeech.

Así es como lo haces:

_processRequest(String transcription) {
  // Process request here
  /// Your business logic here
  //Speak out the result
  setState(() {
    _isShowResult = true;
  });
  _tts(_ttsStaticResult);
}

_tts(String message) {
  tts.speak(message); //<-- SEE HERE
}

¡Felicidades! ahora sabe cómo agregar soporte de texto a voz.

Habilitación de la escucha continua en Android

Cuando ejecuta la aplicación con el complemento de reconocimiento de voz, probablemente encontrará que el reconocimiento de voz en Android se comporta de manera ligeramente diferente a iOS.

En Android, cuando inicias el servicio y no hablas por un momento, el sistema automáticamente deja de escuchar (que no es el caso en iOS).

Técnicamente, debería mantener el servicio abierto hasta que el usuario comience a hablar; el complemento no tiene una solución para esto en este momento, así que le explicaré cómo solucionarlo usted mismo.

Los pasos para habilitar la escucha continua en Android son los siguientes:

  1. Descargue el código del complemento y colóquelo dentro de la carpeta lib/custom_package
  2. Abra el SpeechRecognitionPluginarchivo en lib/custompackage/packagefolder/android/src/main/java/bz/rxla/flutter/speechrecognition.
  3. Reemplace el método onError con el siguiente código
@Override
public void onError(int error) {
Log.d(LOG_TAG, "onError : " + error);
// handling ok google error
if (performingSpeechSetup && error == SpeechRecognizer.ERROR_NO_MATCH) return;

// Restart listening in case of user has not said anything yet and is still listening i.e not stopped by user
if (!isStopped && error == SpeechRecognizer.ERROR_NO_MATCH) {
    error7count += 1;
if (error7count &gt; 0) {
    Log.d(LOG_TAG, "handle error : " + error);
    speech.startListening(recognizerIntent);
    return;
}
}
speechChannel.invokeMethod("speech.onSpeechAvailability", false);
speechChannel.invokeMethod("speech.onError", error);
}

La idea aquí es reiniciar el reconocimiento de voz cuando encuentra el SpeechRecognizer.ERROR_NO_MATCHerror (que aparece cuando el servicio se detiene automáticamente).

Después de realizar los cambios según el código anterior, el servicio de reconocimiento de voz seguirá funcionando mientras el usuario lo detenga manualmente (que es lo que queremos).

Esto es lo que parece:

Servicio de reconocimiento de voz

El código fuente completo se puede encontrar aquí .

Conclusión

Agregar funciones de voz a texto y de texto a voz ofrece la oportunidad de proporcionar una capacidad adicional para que los usuarios interactúen con su aplicación.

En este tutorial, primero vimos cómo agregar voz a texto y luego exploramos cómo agregar el servicio de texto a voz.

Pasamos por instrucciones paso a paso para configurar las variables, la interfaz de usuario y los métodos. También aprendimos cómo habilitar la escucha continua para dispositivos Android. 

Fuente: https://blog.logrocket.com/adding-speech-to-text-text-to-speech-support-flutter-app/

#flutter 

What is GEEK

Buddha Community

Agregar Soporte De Voz A Texto Y De Texto A Voz En Flutter

Google's Flutter 1.20 stable announced with new features - Navoki

Flutter Google cross-platform UI framework has released a new version 1.20 stable.

Flutter is Google’s UI framework to make apps for Android, iOS, Web, Windows, Mac, Linux, and Fuchsia OS. Since the last 2 years, the flutter Framework has already achieved popularity among mobile developers to develop Android and iOS apps. In the last few releases, Flutter also added the support of making web applications and desktop applications.

Last month they introduced the support of the Linux desktop app that can be distributed through Canonical Snap Store(Snapcraft), this enables the developers to publish there Linux desktop app for their users and publish on Snap Store.  If you want to learn how to Publish Flutter Desktop app in Snap Store that here is the tutorial.

Flutter 1.20 Framework is built on Google’s made Dart programming language that is a cross-platform language providing native performance, new UI widgets, and other more features for the developer usage.

Here are the few key points of this release:

Performance improvements for Flutter and Dart

In this release, they have got multiple performance improvements in the Dart language itself. A new improvement is to reduce the app size in the release versions of the app. Another performance improvement is to reduce junk in the display of app animation by using the warm-up phase.

sksl_warm-up

If your app is junk information during the first run then the Skia Shading Language shader provides for pre-compilation as part of your app’s build. This can speed it up by more than 2x.

Added a better support of mouse cursors for web and desktop flutter app,. Now many widgets will show cursor on top of them or you can specify the type of supported cursor you want.

Autofill for mobile text fields

Autofill was already supported in native applications now its been added to the Flutter SDK. Now prefilled information stored by your OS can be used for autofill in the application. This feature will be available soon on the flutter web.

flutter_autofill

A new widget for interaction

InteractiveViewer is a new widget design for common interactions in your app like pan, zoom drag and drop for resizing the widget. Informations on this you can check more on this API documentation where you can try this widget on the DartPad. In this release, drag-drop has more features added like you can know precisely where the drop happened and get the position.

Updated Material Slider, RangeSlider, TimePicker, and DatePicker

In this new release, there are many pre-existing widgets that were updated to match the latest material guidelines, these updates include better interaction with Slider and RangeSliderDatePicker with support for date range and time picker with the new style.

flutter_DatePicker

New pubspec.yaml format

Other than these widget updates there is some update within the project also like in pubspec.yaml file format. If you are a flutter plugin publisher then your old pubspec.yaml  is no longer supported to publish a plugin as the older format does not specify for which platform plugin you are making. All existing plugin will continue to work with flutter apps but you should make a plugin update as soon as possible.

Preview of embedded Dart DevTools in Visual Studio Code

Visual Studio code flutter extension got an update in this release. You get a preview of new features where you can analyze that Dev tools in your coding workspace. Enable this feature in your vs code by _dart.previewEmbeddedDevTools_setting. Dart DevTools menu you can choose your favorite page embed on your code workspace.

Network tracking

The updated the Dev tools comes with the network page that enables network profiling. You can track the timings and other information like status and content type of your** network calls** within your app. You can also monitor gRPC traffic.

Generate type-safe platform channels for platform interop

Pigeon is a command-line tool that will generate types of safe platform channels without adding additional dependencies. With this instead of manually matching method strings on platform channel and serializing arguments, you can invoke native class and pass nonprimitive data objects by directly calling the Dartmethod.

There is still a long list of updates in the new version of Flutter 1.2 that we cannot cover in this blog. You can get more details you can visit the official site to know more. Also, you can subscribe to the Navoki newsletter to get updates on these features and upcoming new updates and lessons. In upcoming new versions, we might see more new features and improvements.

You can get more free Flutter tutorials you can follow these courses:

#dart #developers #flutter #app developed #dart devtools in visual studio code #firebase local emulator suite in flutter #flutter autofill #flutter date picker #flutter desktop linux app build and publish on snapcraft store #flutter pigeon #flutter range slider #flutter slider #flutter time picker #flutter tutorial #flutter widget #google flutter #linux #navoki #pubspec format #setup flutter desktop on windows

Terry  Tremblay

Terry Tremblay

1598396940

What is Flutter and why you should learn it?

Flutter is an open-source UI toolkit for mobile developers, so they can use it to build native-looking** Android and iOS** applications from the same code base for both platforms. Flutter is also working to make Flutter apps for Web, PWA (progressive Web-App) and Desktop platform (Windows,macOS,Linux).

flutter-mobile-desktop-web-embedded_min

Flutter was officially released in December 2018. Since then, it has gone a much stronger flutter community.

There has been much increase in flutter developers, flutter packages, youtube tutorials, blogs, flutter examples apps, official and private events, and more. Flutter is now on top software repos based and trending on GitHub.

Flutter meaning?

What is Flutter? this question comes to many new developer’s mind.

humming_bird_dart_flutter

Flutter means flying wings quickly, and lightly but obviously, this doesn’t apply in our SDK.

So Flutter was one of the companies that were acquired by **Google **for around $40 million. That company was based on providing gesture detection and recognition from a standard webcam. But later when the Flutter was going to release in alpha version for developer it’s name was Sky, but since Google already owned Flutter name, so they rename it to Flutter.

Where Flutter is used?

Flutter is used in many startup companies nowadays, and even some MNCs are also adopting Flutter as a mobile development framework. Many top famous companies are using their apps in Flutter. Some of them here are

Dream11

Dream11

NuBank

NuBank

Reflectly app

Reflectly app

Abbey Road Studios

Abbey Road Studios

and many more other apps. Mobile development companies also adopted Flutter as a service for their clients. Even I was one of them who developed flutter apps as a freelancer and later as an IT company for mobile apps.

Flutter as a service

#dart #flutter #uncategorized #flutter framework #flutter jobs #flutter language #flutter meaning #flutter meaning in hindi #google flutter #how does flutter work #what is flutter

Punith Raaj

1644991598

The Ultimate Guide To Tik Tok Clone App With Firebase - Ep 2

The Ultimate Guide To Tik Tok Clone App With Firebase - Ep 2
In this video, I'm going to show you how to make a Cool Tik Tok App a new Instagram using Flutter,firebase and visual studio code.

In this tutorial, you will learn how to Upload a Profile Pic to Firestore Data Storage.

🚀 Nice, clean and modern TikTok Clone #App #UI made in #Flutter⚠️

Starter Project : https://github.com/Punithraaj/Flutter_Tik_Tok_Clone_App/tree/Episode1

► Timestamps 
0:00 Intro 0:20 
Upload Profile Screen 
16:35 Image Picker
20:06 Image Cropper 
24:25 Firestore Data Storage Configuration.

⚠️ IMPORTANT: If you want to learn, I strongly advise you to watch the video at a slow speed and try to follow the code and understand what is done, without having to copy the code, and then download it from GitHub.

► Social Media 
GitHub: https://github.com/Punithraaj/Flutter_Tik_Tok_Clone_App.git
LinkedIn: https://www.linkedin.com/in/roaring-r...
Twitter: https://twitter.com/roaringraaj
Facebook: https://www.facebook.com/flutterdartacademy

► Previous Episode : https://youtu.be/QnL3fr-XpC4
► Playlist: https://youtube.com/playlist?list=PL6vcAuTKAaYe_9KQRsxTsFFSx78g1OluK

I hope you liked it, and don't forget to like,comment, subscribe, share this video with your friends, and star the repository on GitHub!
⭐️ Thanks for watching the video and for more updates don't forget to click on the notification. 
⭐️Please comment your suggestion for my improvement. 
⭐️Remember to like, subscribe, share this video, and star the repo on Github :)

Hope you enjoyed this video!
If you loved it, you can Buy me a coffee : https://www.buymeacoffee.com/roaringraaj

LIKE & SHARE & ACTIVATE THE BELL Thanks For Watching :-)
 
https://youtu.be/F_GgZVD4sDk

#flutter tutorial - tiktok clone with firebase #flutter challenge @tiktokclone #fluttertutorial firebase #flutter firebase #flutter pageview #morioh #flutter

Saul  Alaniz

Saul Alaniz

1657034718

Agregar Soporte De Voz A Texto Y De Texto A Voz En Flutter

Una función de voz a texto convierte su voz en texto y una función de texto a voz lee el texto en voz alta. Al agregar esta función, los usuarios pueden interactuar con su aplicación a través de la voz (además de los gestos del usuario), mejorando la experiencia del usuario. Esto puede ayudarlo a crear, en esencia, una aplicación similar a un asistente de Google.

La forma en que funciona es que usted dice algo o le pregunta algo a la aplicación, y la aplicación procesa su solicitud y luego dice el resultado.

En este tutorial, construiremos un ejemplo utilizando el complemento de reconocimiento de voz y texto a voz .

Pasaremos por un proceso paso a paso para el ejemplo que le brinda una base para crear una aplicación de asistente de voz. También cubriremos los casos que el complemento no maneja de forma predeterminada, como la escucha continua en dispositivos Android.

Así es como se ve cuando se completa:

Ejemplo de aplicación de voz a texto completada

Agregar voz a texto en una aplicación Flutter

En la aplicación de ejemplo, cuando un usuario toca el botón del micrófono, la aplicación comienza a escuchar. Cuando el usuario comienza a hablar, la voz se convierte en texto y se muestra en la pantalla. Los usuarios pueden detener el servicio de escucha haciendo clic en el botón de detener.

Puede implementar dicho requisito utilizando el complemento de reconocimiento de voz . Internamente, utiliza Speech API para iOS y SpeechRecognizer para Android. Le permite agregar reconocimiento de voz para cualquier configuración regional con dispositivos compatibles con iOS10+ y Android 4.1+.

Este complemento ofrece varios métodos útiles que puede usar para iniciar, detener y cancelar la escucha.

 

Aquí están las instrucciones paso a paso sobre cómo agregar el soporte de voz a texto:

Paso 1: agregar dependencias

El primer paso comienza con agregar dependencia dentro del pubspec.yamlarchivo.

El contenido dentro del pubspec.yamlarchivo debería verse así:

dependencies:
  flutter:
    sdk: flutter
  cupertino_icons: ^1.0.2
  speech_recognition: ^0.3.0+1 #NEW

Paso 2: Agregar permisos

Para que el complemento grabe audio, debe otorgar permiso para la plataforma Android e iOS. Para ello, puede actualizar los archivos específicos de la plataforma.

Para Android

Ubique el AndroidManifest.xmlarchivo en your_project/android/app/src/main/AndroidManifest.xml y actualice el archivo de la siguiente manera:

<manifest xmlns:android="http://schemas.android.com/apk/res/android"
    package="com.example.speech_to_text_demo">

    <!-- 1. Permission -->
    <uses-permission android:name="android.permission.RECORD_AUDIO" />

    <!-- 2. To overcome bind to recognition service failed issue -->
    <queries>
        <package android:name="com.google.android.googlequicksearchbox"/>
    </queries>


   <application
        android:label="speech_to_text_demo"
        android:name="${applicationName}"
        android:icon="@mipmap/ic_launcher">
        <activity
            android:name=".MainActivity"
            android:exported="true"
            android:launchMode="singleTop"
            android:theme="@style/LaunchTheme"
            android:configChanges="orientation|keyboardHidden|keyboard|screenSize|smallestScreenSize|locale|layoutDirection|fontScale|screenLayout|density|uiMode"
            android:hardwareAccelerated="true"
            android:windowSoftInputMode="adjustResize">
    </application>
</manifest>

Esto es lo que está pasando en el código anterior:

  1. Agregar android.permission.RECORD_AUDIOpara grabar audio
  2. Esto lo ayuda a solucionar el "problema fallido de vinculación al servicio de reconocimiento" en algunos dispositivos Android.

para iOS

Ubique el info.plistarchivo en your_project/ios/Runner/info.plist y agregue los siguientes permisos:

<key>NSMicrophoneUsageDescription</key>
<string>This application needs to access your microphone</string>
<key>NSSpeechRecognitionUsageDescription</key>
<string>This application needs the speech recognition permission</string>

(Nota: los permisos anteriores mostrarán un mensaje al usuario antes de iniciar el reconocimiento de voz)

Paso 3: Agregar variables requeridas

En este paso, agregará las variables necesarias para mantener el estado de la aplicación. Por ejemplo, debe necesitar una variable para saber si se inicia el reconocimiento de voz. Estos serán útiles para mostrar y ocultar widgets en función de diversas situaciones.

Aquí hay algunas variables vitales que necesita:

// 1.
late SpeechRecognition _speech;
// 2.
bool _isSpeechStarted = false;
// 3.
bool _isListening = false;
// 4.
String transcription = '';
String currentText = '';
// 5.
bool _isEndOfSpeech = false;
  1. Esto se usará para crear la instancia SpeechRecognitiony luego acceder a ella para comenzar y detener la escucha.
  2. Esto se usará para mostrar/ocultar los botones de micrófono y parada.
  3. Esto se usará para mostrar/ocultar el texto 'Escuchando...'. Aunque podemos usar la variable anterior (ie _isSpeechStarted), esta variable es útil para saber si el usuario realmente está hablando
  4. Esto es para saber que el reconocimiento de voz se ha detenido.

Paso 4: Creación de la interfaz de usuario de la página

La interfaz de usuario de la página consta de dos secciones principales. La primera sección muestra la conversación entre el asistente de voz y el usuario; y la segunda sección muestra el área para iniciar y detener el reconocimiento de voz.

Así es como se ve el código mínimo para esto:

SafeArea(
  child: Scaffold(
    backgroundColor: Colors.white,
    bottomNavigationBar: Container(
      height: 200,
      color: Colors.white,
      child: Column(
        mainAxisAlignment: MainAxisAlignment.spaceEvenly,
        children: [
          // 1. <-- SEE HERE
          if (!_isSpeechStarted) ...[
            FloatingActionButton(
              backgroundColor: const Color(0xff764abc),
              child: Icon(
                Icons.mic,
                size: 35,
              ),
              onPressed: () {
                _startSpeechRecognition();
              },
            ),
          ] else ...[
            FloatingActionButton(
              backgroundColor: const Color(0xff764abc),
              child: Icon(
                Icons.stop,
                size: 35,
              ),
              onPressed: () {
                _stopSpeechRecognition();
              },
            ),
          ],
          // 2. <-- SEE HERE
          if (_isListening) ...[
            Text(
              kListening,
              style: GoogleFonts.nunito(
                  textStyle:
                      TextStyle(color: Colors.black, fontSize: 22.5)),
            ),
          ],
        ],
      ),
    ),
    appBar: AppBar(
      title: Text('Voice Assistant'),
      backgroundColor: const Color(0xff764abc),
    ),
    body: Container(
      padding: EdgeInsets.all(16),
      child: SingleChildScrollView(
        child: Column(
          children: [
            SizedBox(
              height: 10,
            ),
            Row(
              mainAxisAlignment: MainAxisAlignment.end,
              children: [
                Text(
                  _ttsGreet,
                  style: GoogleFonts.poppins(
                    textStyle: TextStyle(
                        fontSize: 30.5, fontWeight: FontWeight.bold),
                  ),
                ),
              ],
            ),
            // 3. <-- SEE HERE
            TextField(
              controller: _myController,
              readOnly: true,
              onChanged: (String text) {
                setState(() {
                  _isContentsPresent = text.isNotEmpty;
                });
              },
              //focusNode: _nodeText1,
              cursorColor: Colors.grey,
              style:
                  GoogleFonts.poppins(textStyle: TextStyle(fontSize: 30.5)),
              keyboardType: TextInputType.multiline,
              maxLines: null,
              decoration: InputDecoration(
                border: InputBorder.none,
                hintStyle: GoogleFonts.nunito(),
              ),
            ),
          ],
        ),
      ),
    ),
  ),
);

Aquí hay un resumen rápido del código anterior:

  1. Esta parte contiene dos FloatingActionButtons ; uno para iniciar el reconocimiento de voz y otro para detenerlo. Pero, solo se muestra uno basado en la _isSpeechStartedvariable
  2. Esto se usa para mostrar/ocultar el texto 'Escuchando...'
  3. El resultado de voz a texto (comando de voz del usuario real) se muestra aquí. Aquí, TextFieldel widget se usa en lugar del Textwidget para permitir que los usuarios editen el comando de voz (si es necesario)

Aquí se explica cómo codificar traducido al diseño:

Diseño de código traducido

Paso 5: agregar métodos de reconocimiento de voz

Después de configurar las variables y la interfaz de usuario de la página, es hora de llamar a los métodos del complemento que son responsables de impulsar la función de reconocimiento de voz.

A continuación se muestran algunos de los métodos importantes que utilizará para iniciar y detener el servicio de reconocimiento.

// 1.
void _activateSpeechRecognizer() {
  _requestPermission();
  _speech = new SpeechRecognition();
  _speech.setAvailabilityHandler(onSpeechAvailability);
  _speech.setRecognitionStartedHandler(onRecognitionStarted);
  _speech.setRecognitionResultHandler(onRecognitionResult);
  _speech.setRecognitionCompleteHandler(onRecognitionComplete);
  _speech
      .activate()
      .then((res) => setState(() => _speechRecognitionAvailable = res));
}
// 2.
void onRecognitionResult(String text) {
  if (_isEndOfSpeech) {
    _isEndOfSpeech = false;
    return;
  }
  setState(() {
    transcription = text;
    _isListening = true;
    print('recognized text is- $transcription');
    _myController.text = transcription;
    _myController.selection = TextSelection.fromPosition(
        TextPosition(offset: _myController.text.length));
  });
}
// 3.
void onRecognitionComplete() {
  print('Recognition Completed');

  if (transcription.isNotEmpty) {
    _isContentsPresent = true;
    _processRequest(transcription);
    _toggleSpeechRecognitionStatus(isSpeechStarted: false);
  }
}
  1. Esto activa el reconocedor de voz en segundo plano. Esto debe llamarse tan pronto como se cargue la página.
  2. Esto genera el resultado del reconocimiento en el TextFieldwidget.
  3. Esto se llamará cuando el usuario termine de proporcionar el comando de voz. Aquí puede tomar la transcripción (voz convertida en texto) y realizar la lógica comercial o lo que quiera hacer con la transcripción.

¡Impresionante! ahora sabe cómo agregar soporte de voz a texto. Supongamos que ha procesado la solicitud y es hora de hablar sobre el resultado. Vamos a ver echar un vistazo a cómo hacer eso.

Agregar texto a voz en una aplicación Flutter

En la aplicación de ejemplo, después de mostrar el comando de voz del usuario en la pantalla, el comando de voz se procesa y el asistente de voz lee el resultado (además de mostrarlo en la pantalla).

Puede implementar dicho requisito utilizando el complemento de texto a voz (TTS). Funciona en iOS, Android, web y macOS. Con este complemento, también puede cambiar el volumen , la velocidad y el tono de la voz.

Aquí están las instrucciones paso a paso para agregar el soporte de texto a voz:

Paso 1: agregar dependencias

Agregue la dependencia de texto a vozpubspec.yaml dentro del archivo.

El contenido dentro del pubspec.yamlarchivo debería verse así:

dependencies:
  flutter:
    sdk: flutter
  cupertino_icons: ^1.0.2
  speech_recognition: ^0.3.0+1 
  text_to_speech:  #NEW

Paso 2: Agregar permisos

Para que el complemento pronuncie el texto, solo necesita habilitar el permiso para la plataforma Android.

Este es el AndroidManifest.xmlaspecto que debería tener el archivo (ubicado en your_project/android/app/src/main/AndroidManifest.xml):

<manifest xmlns:android="http://schemas.android.com/apk/res/android"
    package="com.example.speech_to_text_demo">

    <queries>
        <package android:name="com.google.android.googlequicksearchbox"/>
        <intent>
            <action android:name="android.intent.action.TTS_SERVICE" />
        </intent>
    </queries>

   <application
    </application>
</manifest>

Paso 3: Agregar variables requeridas

En este paso, agregará las variables necesarias para iniciar y pasar el mensaje al servicio TTS (texto a voz).

Aquí hay algunas variables que necesita:

// 1.
TextToSpeech tts = TextToSpeech();
// 2.
String _ttsGreet = 'How may I help you?';
// 3.
String _ttsStaticResult = 'Its very hot today';
  1. Esto creará la instancia de TextToSpeech, que puede usar para activar el servicio TTS
  2. Este es un mensaje de bienvenida que se muestra después de cargar la página
  3. Esto para mostrar y pronunciar un mensaje ficticio

Paso 4: Creación de la interfaz de usuario de la página

La interfaz de usuario de la página simplemente muestra un mensaje de saludo y un mensaje que responde a la consulta del usuario en un widget de texto (debajo de la consulta del usuario).

En aras de la simplicidad, la interfaz de usuario de la página se mantiene simple. Puede extender esto y usar ListView para crear una interfaz de usuario flexible que mejor se adapte a sus requisitos.

El código se ve así:

if (_isShowResult)
  Row(
    mainAxisAlignment: MainAxisAlignment.end,
    children: [
      Text(
        _ttsStaticResult,
        //textAlign: TextAlign.end,
        style: GoogleFonts.poppins(
          textStyle: TextStyle(
              fontSize: 30.5, fontWeight: FontWeight.bold),
        ),
      ),
    ],
  ),

Ejemplo de interfaz de usuario de página

Paso 5: Agregar texto

Si configuró las variables y la interfaz de usuario de la página, puede activar el discurso después de procesar la consulta del usuario llamando al speak()método en la instancia del archivo TextToSpeech.

Así es como lo haces:

_processRequest(String transcription) {
  // Process request here
  /// Your business logic here
  //Speak out the result
  setState(() {
    _isShowResult = true;
  });
  _tts(_ttsStaticResult);
}

_tts(String message) {
  tts.speak(message); //<-- SEE HERE
}

¡Felicidades! ahora sabe cómo agregar soporte de texto a voz.

Habilitación de la escucha continua en Android

Cuando ejecuta la aplicación con el complemento de reconocimiento de voz, probablemente encontrará que el reconocimiento de voz en Android se comporta de manera ligeramente diferente a iOS.

En Android, cuando inicias el servicio y no hablas por un momento, el sistema automáticamente deja de escuchar (que no es el caso en iOS).

Técnicamente, debería mantener el servicio abierto hasta que el usuario comience a hablar; el complemento no tiene una solución para esto en este momento, así que le explicaré cómo solucionarlo usted mismo.

Los pasos para habilitar la escucha continua en Android son los siguientes:

  1. Descargue el código del complemento y colóquelo dentro de la carpeta lib/custom_package
  2. Abra el SpeechRecognitionPluginarchivo en lib/custompackage/packagefolder/android/src/main/java/bz/rxla/flutter/speechrecognition.
  3. Reemplace el método onError con el siguiente código
@Override
public void onError(int error) {
Log.d(LOG_TAG, "onError : " + error);
// handling ok google error
if (performingSpeechSetup && error == SpeechRecognizer.ERROR_NO_MATCH) return;

// Restart listening in case of user has not said anything yet and is still listening i.e not stopped by user
if (!isStopped && error == SpeechRecognizer.ERROR_NO_MATCH) {
    error7count += 1;
if (error7count &gt; 0) {
    Log.d(LOG_TAG, "handle error : " + error);
    speech.startListening(recognizerIntent);
    return;
}
}
speechChannel.invokeMethod("speech.onSpeechAvailability", false);
speechChannel.invokeMethod("speech.onError", error);
}

La idea aquí es reiniciar el reconocimiento de voz cuando encuentra el SpeechRecognizer.ERROR_NO_MATCHerror (que aparece cuando el servicio se detiene automáticamente).

Después de realizar los cambios según el código anterior, el servicio de reconocimiento de voz seguirá funcionando mientras el usuario lo detenga manualmente (que es lo que queremos).

Esto es lo que parece:

Servicio de reconocimiento de voz

El código fuente completo se puede encontrar aquí .

Conclusión

Agregar funciones de voz a texto y de texto a voz ofrece la oportunidad de proporcionar una capacidad adicional para que los usuarios interactúen con su aplicación.

En este tutorial, primero vimos cómo agregar voz a texto y luego exploramos cómo agregar el servicio de texto a voz.

Pasamos por instrucciones paso a paso para configurar las variables, la interfaz de usuario y los métodos. También aprendimos cómo habilitar la escucha continua para dispositivos Android. 

Fuente: https://blog.logrocket.com/adding-speech-to-text-text-to-speech-support-flutter-app/

#flutter 

Punith Raaj

1640672627

Flutter Hotel Booking UI - Book your Stay At A New Hotel With Flutter - Ep1

https://youtu.be/-tHUmjIkGJ4
Flutter Hotel Booking UI - Book your Stay At A New Hotel With Flutter - Ep1
#flutter #fluttertravelapp #hotelbookingui #flutter ui design 

In this video, I'm going to show you how to make a Cool Hotel Booking App using Flutter and visual studio code. 

In this tutorial, you will learn how to create a Splash Screen and Introduction Screen, how to implement a SmoothPageIndicator in Flutter. 

🚀 Nice, clean and modern Hotel Booking #App #UI made in #Flutter 

⚠️ IMPORTANT: If you want to learn, I strongly advise you to watch the video at a slow speed and try to follow the code and understand what is done, without having to copy the code, and then download it from GitHub. 

► Social Media 

    GitHub: https://github.com/Punithraaj 

    LinkedIn: https://www.linkedin.com/in/roaring-r...

    Twitter: https://twitter.com/roaringraaj

    Facebook: https://www.facebook.com/flutterdartacademy

I hope you liked it, and don't forget to like,comment, subscribe, share this video with your friends, and star the repository on GitHub! 

⭐️ Thanks for watching the video and for more updates don't forget to click on the notification.⭐️Please comment your suggestion for my improvement. ⭐️Remember to like, subscribe, share this video, and star the repo on Github :)Hope you enjoyed this video! If you loved it, you can Buy me a coffee : https://www.buymeacoffee.com/roaringraaj

#flutter riverpod #flutter travel app #appointment app flutter #morioh