Zapotrzebowanie na tłumaczenia stale rośnie. Sprzyja temu rozwój kontaktów i wymiany handlowej między państwami, rozwój technologii i oprogramowania informatycznego, a także rozwój instytucji międzynarodowych, w tym europejskich, i stałe poszerzanie listy języków oficjalnych Unii Europejskiej. Ludzkie możliwości są ograniczone, tłumacz jest w stanie przetłumaczyć określoną liczbę stron tekstu dziennie. Trwa więc poszukiwanie sposobów zaradzenia tym ograniczeniom i sprostania rosnącemu zapotrzebowaniu na przekład.
Pierwsze próby tłumaczeń maszynowych
Pierwsze próby podejmowano już w XVII wieku. Jednak dopiero nadejście ery komputerów w latach pięćdziesiątych ubiegłego stulecia otworzyło szerokie możliwości automatyzacji w tej dziedzinie.
Kolebką mechanizacji tłumaczeń jest Ameryka, gdzie IBM zaprojektował pierwsze rozwiązania mające na celu przyspieszyć i ułatwić proces tłumaczeń. Trwające obecnie prace nad sztuczną inteligencją dążą do udoskonalenia nieporadności pierwszych rozwiązań.
Udział ludzki w procesie przekładu
Czas pokaże, czy te dążenia okażą się skuteczne. Udział ludzki w procesie przekładu wydaje się niezastąpiony. W tłumaczeniu należy uwzględniać nie tylko sens, znaczenie słów, ale także kontekst i interpretację. Proces przekładu jest bardzo złożony. Niezbędna jest nie tylko wiedza lingwistyczna (znajomość języków). Potrzebna jest także wiedza o otaczającym nas świecie oraz wrażliwość językowa, którą dysponuje tylko człowiek.
Modele tłumaczeń mechanicznych
Dotychczas stworzono trzy modele mechanicznego tłumaczenia: wspomagane maszynowo (MAHT), wspomagane przez człowieka (HAMT) oraz całkowicie mechaniczne (FAMT).
Tłumaczenia wspomagane maszynowo w całości wykonuje człowiek, który jedynie wspiera się w swych pracach komputerem. Komputer upraszcza i przyspiesza proces przekładu poprzez możliwość wykorzystania słowników, przeszukiwanie poprzednio wykonanych tłumaczeń, sprawdzania pisowni itd. Tłumaczenia wspomagane przez człowieka są tłumaczeniami wykonanymi przez maszynę. Człowiek jedynie ingeruje na niektórych jego etapach, dokonując m.in. weryfikacji czy postedycji. Tłumaczenie w 100% mechaniczne są wykonywane w całości przez maszynę. Zwykle są dość niskiej jakości i służą jedynie w celach „orientacyjnych”.
Techniki tłumaczeń mechanicznych dzieli się na symboliczne, które wykorzystują zestaw reguł, oraz statystyczne, które opierają się na bazie przetłumaczonych tekstów. W pierwszym przypadku występują problemy transferu leksykalnego, polegające na trudnościach z doborem odpowiedników dla słów wyjściowych, syntaktycznego, związane z nieodpowiedniością systemów gramatycznych języków i analizy składniowej zdania, oraz semantycznego, polegającego na analizie znaczeń z wykorzystaniem słowników hierarchicznych. Natomiast w przypadku tłumaczeń opartych na technikach statystycznych algorytmy analizują wcześniejsze tłumaczenia i odrzucają ścieżki tłumaczeniowe o niskich prawdopodobieństwach.
Neuronowe tłumaczenia maszynowe
Nie można też nie wspomnieć o neuronowych tłumaczeniach maszynowych (NMT). Pojawiły się pod koniec 2016 roku i stanowiły rewolucję w porównaniu do tłumaczenia statystycznego. Niemal z dnia na dzień system tłumaczenia maszynowego opartego na sieciach neuronowych Google (Google Translate) zaczął produkować całkiem składne zdania, w których odmiana przez przypadki przestała być problemem. Pojawił się również tłumacz online DeepL. Jest połączeniem sztucznej inteligencji i ogromnej bazy tekstów źródłowych Linguee. Na pierwszy rzut oka daje zaskakująco dobre rezultaty. Głębsza analiza jakości tych tłumaczeń pokazuje jednak, że im dłuższe i bardziej złożone zdania, im więcej specjalistycznego słownictwa lub nazw własnych, tym gorsze tłumaczenie.
Coraz więcej firm zaczyna korzystać z silników NMT, które mają zastosowanie w wąskich dziedzinach specjalizacji. Czas „uczenia” takiego silnika po wprowadzeniu do niego danych wejściowych jest jednak bardzo długi. Pewne typowe błędy (brak spójności terminologicznej lub neologizmy w języku docelowym będące „zlepkiem” słów z języka wyjściowego) będą pojawiać się mimo to. Nie zmienia to faktu, że odpowiednio stosowany silnik NMT przyspiesza pracę nad tłumaczeniem tekstów technicznych i innych tekstów o wysokim stopniu powtarzalności. Do pracy wymagającej większej kreatywności póki co nie ma jednak zastosowania.
Tłumaczenia a sztuczna inteligencja
Rozwój sztucznej inteligencji z jednej strony fascynuje, z drugiej strony budzi obawy związane z ryzykiem utraty pracy przez wielu tłumaczy. Na stronie internetowej www.willrobotstakemyjob.com możemy sprawdzić, jak wysokie jest prawdopodobieństwo zastąpienia niektórych zawodów przez roboty. W przypadku tłumaczy pisemnych i ustnych wynosi ono 38%. Jednocześnie czytamy tam, że jest mała szansa, że roboty i sztuczna inteligencja zastąpią tłumaczy.
Niektórzy przedstawiciele zawodu tłumacza twierdzą, że tłumaczenia maszynowe wkrótce staną się czymś zupełnie normalnym podobnie jak CAT-y, które weszły przebojem na rynek tłumaczeniowy dekadę temu, a bez których dzisiaj nie wyobrażamy sobie pracy. Ich zdaniem, tłumacze będą musieli przekwalifikowywać się w kierunku weryfikacji i postedycji czy też tzw. enhancingu tłumaczeń maszynowych. Już teraz organizuje się kursy MTPE. Na każdej konferencji branżowej zarówno w kraju, jak za granicą uczestnicy omawiają temat automatyzacji.
Tłumaczenia a kreatywność
Optymistyczny dla przyszłości tłumaczy wydaje się fakt, że maszyna nie rozumie tego, co tłumaczy. Umyka jej wszelka ironia, parabole i niuanse językowe. Może warto więc wyspecjalizować się w niszowych tłumaczeniach wymagających kreatywności?
Niektórzy obserwatorzy nowoczesnych technologii twierdzą, że zawód tłumacza będzie należał do zawodów, które znikną w związku z automatyzacją i zastępowaniem człowieka przez algorytmy. Inni twierdzą, że zapotrzebowanie na tłumaczenia będzie stale rosło wraz z globalizacją, rozwojem wymiany handlowej i postępem technicznym. Według nich tłumaczenie maszynowe będzie służyło do tłumaczenia tekstów, które do tej pory nie były tłumaczone ze względów finansowych.
Co o tym myślicie?