To install click the Add extension button. That's it.

The source code for the WIKI 2 extension is being checked by specialists of the Mozilla Foundation, Google, and Apple. You could also do it yourself at any point in time.

4,5
Kelly Slayton
Congratulations on this excellent venture… what a great idea!
Alexander Grigorievskiy
I use WIKI 2 every day and almost forgot how the original Wikipedia looks like.
Live Statistics
Spanish Articles
Improved in 24 Hours
Added in 24 Hours
Languages
Recent
Show all languages
What we do. Every page goes through several hundred of perfecting techniques; in live mode. Quite the same Wikipedia. Just better.
.
Leo
Newton
Brights
Milds

Métodos de evaluación para la traducción automática

De Wikipedia, la enciclopedia libre

Una vez realizada la traducción automática de un texto, es necesario evaluar su calidad. Dependiendo de la finalidad a la que está dirigida la traducción, será necesario un nivel de calidad distinto. Por ejemplo, en un sistema que traduzca frases a varios idiomas dentro de un programa de chat multilingüe, será suficiente con una traducción que permita entender el texto resultante. En otros casos, como en la traducción de textos dentro de una empresa, la calidad deberá ser mucho mayor.

No existe una medida perfecta para evaluar una traducción, por lo que se utilizan distintos métodos, cada uno con sus ventajas y desventajas.

YouTube Encyclopedic

  • 1/3
    Views:
    15 813
    2 122
    589
  • Matriz de confusión para evaluación de un modelo de clasificación
  • Diseño de pruebas objetivas e ítems de opción múltiple: recomendaciones para su elaboración.
  • Ergonómia - Procedimientos de Evaluación de Riesgos Disergonómico ||

Transcription

Métodos objetivos

Pertenecen a esta clase los métodos en la que no sea necesaria la valoración de la traducción por un ser humano.

WER (word error rate)
mínimo número de sustituciones, inserciones y borrados que se deben de realizar para corregir la frase generada.
PER (position-independent word error rate)
mejora de WER para que sea independiente de la posición de las palabras dentro de la frase.
mWER (multi-reference word error rate)
se calcula WER entre la frase generada y la más similar de entre un conjunto de frases de referencia. Esta medida resulta más fiable que WER. Si se utiliza una sola frase de referencia, esta puede diferir mucho de la traducción de nuestro sistema debido a las libertades a la hora de traducir propias de un traductor humano. Por ello, al escoger entre varias traducciones de referencia, se mejoran los resultados obtenidos.
BLEU
mide la precisión de los ngramas (unigramas, bigramas, trigramas y cuatrigramas) con respecto a un conjunto de traducciones de referencia.
NIST
variación de BLEU en el que se le otorga un mayor peso a los ngramas poco frecuentes.

Métodos subjetivos

En estos métodos, los humanos intervienen en la valoración de la traducción.

SSER (subjective sentence error rate)
un humano califica la traducción de una frase de 0 a 1. Una calificación de 0 se le da una traducción perfecta, mientras que una de 1 se corresponde una traducción sintáctica y semánticamente incorrecta.
IER (information item error rate)
las frases de prueba se dividen en ítems. Un humano examina si la información de cada uno de los ítems se encuentra presente en la traducción. De esta manera, se puede comprobar si siendo la traducción de la frase incorrecta, existen partes de esta que en cambio sí son correctas.

Véase también


Esta página se editó por última vez el 17 feb 2021 a las 02:40.
Basis of this page is in Wikipedia. Text is available under the CC BY-SA 3.0 Unported License. Non-text media are available under their specified licenses. Wikipedia® is a registered trademark of the Wikimedia Foundation, Inc. WIKI 2 is an independent company and has no affiliation with Wikimedia Foundation.