Echtzeitübersetzung Dank Augmented Reality Und Spracherkennung Eine Untersuchung Am Beispiel Der Google Translate-App
Total Page:16
File Type:pdf, Size:1020Kb
ECHTZEITÜBERSETZUNG DANK AUGMENTED REALITY UND SPRACHERKENNUNG EINE UNTERSUCHUNG AM BEISPIEL DER GOOGLE TRANSLATE-APP Julia Herb, BA Matrikelnummer: 01216413 MASTERARBEIT eingereicht im Rahmen des Masterstudiums Translationswissenschaft Spezialisierung: Fachkommunikation an der Leopold-Franzens-Universität Innsbruck Philologisch-Kulturwissenschaftliche Fakultät Institut für Translationswissenschaft betreut von: ao. Univ.-Prof. Mag. Dr. Peter Sandrini Innsbruck, am 22.07.2019 1 Inhaltsverzeichnis Abstract ........................................................................................................................................................... 1 Abbildungsverzeichnis .................................................................................................................................... 2 1. Aktualität des Themas ............................................................................................................................. 4 2. Augmented Reality: die neue Form der Multimedialität ........................................................................ 7 a. Definition und Abgrenzung ................................................................................................................ 7 b. Anwendungsbereiche der AR-Technologie ...................................................................................... 11 3. Verbmobil: neue Dimensionen der maschinellen Übersetzung dank Spracherkennung ....................... 13 a. Besonderheiten eines Echtzeit-Übersetzungs-Projekts ..................................................................... 13 b. Maschinelle Übersetzungssoftware .................................................................................................. 18 i. Problematik der situationsbezogenen Sprache ............................................................................. 18 ii. Fehlerhafte Übersetzungen aufgrund einer kulturspezifischen Prototypenstruktur ...................... 30 c. Projekt Verbmobil – ein Erfolg auf ganzer Linie .............................................................................. 37 4. Von Word Lens zu Google Translate – die Entwicklung einer Augmented Reality-App .................... 39 5. Empirischer Teil: praktische Analyse der Google Translate-App ........................................................ 43 a. Methode des empirischen Teils ........................................................................................................ 44 i. Aufbau des Online-Fragebogens .................................................................................................. 44 i. Auswertung des Online-Fragebogens ........................................................................................... 46 b. Eigenanalyse der Google Translate-App .......................................................................................... 50 i. User Interface ............................................................................................................................... 51 ii. Augmented Reality-Funktion im technischen Praxistest .............................................................. 57 iii. Fehlerkategorien der Google Translate-App ................................................................................ 62 1. „Sight-Seeing“ in Budapest .......................................................................................................... 62 2. „Sight-Seeing“ in Göteborg .......................................................................................................... 68 3. Übersetzen von Redewendungen .................................................................................................. 77 4. Übersetzen von Speisekarten ........................................................................................................ 80 5. Übersetzen von AGB’s ................................................................................................................. 83 6. Mensch vs. Maschine: maschinelle Übersetzungssoftwares als Arbeitserleichterung? ........................ 93 7. Literaturverzeichnis .............................................................................................................................. 97 Eidesstattliche Erklärung ............................................................................................................................. 101 Abstract This master thesis focuses on machine-generated translations that are created by the translation app Google Translate. Apps like Google Translate tend to make our everyday life easier by using Augmented Reality but they are also rapidly changing the way we perceive the world around us. As they are “extending our reality”, they are not only changing our sight of reality, but also raising the question if we used to live in a “reduced reality” so far. Word Lens was the first translation app dedicated to this AR-technology and was primarily developed for tourists living in a foreign-language country and who were in need of fast and reliable translations without an internet connection. As World Lens was bought by Google and later became the more-known Google Translate, the theoretic part of this master thesis is analyzing the development from the early World Lens beginnings to a now successful and worldwide known AR-translation-app. The aim of this master thesis is to answer the question why the technology behind the machine- generated translation is as complex and problematic as it is. It will also provide insights into the apps procedure and the technical, as well as the linguistic implementations. Furthermore, the quality of these machine-generated translations will be analyzed in order to find out if they are of high-quality and whether frequently occurring translation errors are either caused by cultural issues or due to a culture-specific prototype structure. It will also be tested how useful the Google Translate-app will work out on an everyday basis and compared to different types of texts such as menus, general conditions and local signs. The intention of this master thesis is to create a comprehensive study of the Google Translate- app and its overall performance. This includes on the one hand a qualitative self-analysis of the translation app itself and its related functions – augmented reality translation in camera mode and translation via voice recognition mode – and on the other hand, an online questionnaire with selected analysis criteria that will lead to more objective test results. 1 Abbildungsverzeichnis 1. Abb. 1 Überblick über das finale Verbmobil System (Wahlster, 2000, S. 5) ................... 15 2. Abb. 2 Überblick über die Übersetzungsmotoren der Verbmobil Software (Wahlster, 2000, S. 17) ..................................................................................................... 17 3. Abb. 3 Expliziter Dialogspeicher (Wahlster, 2000, S. 4) ................................................. 18 4. Abb. 4a Beispiel für einen zeitlichen Bezug ..................................................................... 20 5. Abb. 4b Beispiel für einen örtlichen Bezug ...................................................................... 20 6. Abb. 5 Saussure’s Konzept des Baums (Pawel Krzeszowski, 2012, S. 84) ..................... 32 7. Abb. 6 Konzept der Liebe (Pawel Krzeszowski, 2012) .................................................... 32 8. Abb. 7 Beispiel für eine AR-Einbindung (Beiersmann, 2014) ......................................... 40 9. Abb. 8a meist richtige Übersetzungskategorien ............................................................... 47 10. Abb. 8b meist falsche Übersetzugskategorien .................................................................. 47 11. Abb. 9 User Interface der Google Translate-App (Yousefi) ............................................ 52 12. Abb. 10 Veränderung des User Interface (Yousefi) ......................................................... 52 13. Abb. 11 Icon der Sprachaufnahmefunktion (Yousefi) ...................................................... 54 14. Abb. 12 Veränderung des Sprachaufname Icons (Yousefi) .............................................. 55 15. Abb. 13 Ice Breaker (Yousefi) .......................................................................................... 56 16. Abb. 14a „Jetzt sprechen“ ................................................................................................. 56 17. Abb. 14b „Tippe zum Sprechen“ ...................................................................................... 56 18. Abb. 15a Foto japanische Schriftzeichen .......................................................................... 57 19. Abb. 15b Screenshot japanische Übersetzung .................................................................. 57 20. Abb. 16a Foto Glückskeksverpackung ............................................................................. 58 21. Abb. 16b Screenshot Glückskeksverpackung ................................................................... 58 22. Abb. 17a Screenshot „Markiere den Text mit dem Finger“ ............................................. 59 23. Abb. 17b Screenshot ausgewählte Textstelle .................................................................... 59 24. Abb. 18a Foto Kalendertextstelle...................................................................................... 60 2 25. Abb. 18b Screenshot Kalenderübersetzung ...................................................................... 60 26. Abb. 19a Foto Straßenschild ............................................................................................