Ru-Board.club
← Вернуться в раздел «Программы»

» TRADOS и другие CAT-средства

Автор: Xoanon
Дата сообщения: 29.12.2013 21:28

Цитата:
Можно ли сказать, что человек строит фразу по тому же принципу?
Родители в детстве формируют языковую модель, исправляя ошибки. Затем накапливается статистика - чем больше человек общается и читает, тем грамотнее речь.
Если да - получается, что мозг (и особенно мозг профессионального переводчика) хранит весь этот объем информации, который пока не под силу хранить и обрабатывать современному компьютеру (в количестве 1 шт).


Нет, в том то и отличие, что человеческий мозг хранит языковую модель на другом принципе - на принципе обощения и аналогии. Т.е. то, что статистический машинный переводчик будет хранить в виде списка состоящего из тысяч-десятков тысяч комбинаторных вариантов, в человечексом мозгу храниться в виде абстрактного правила с сылками на абстрактные категории, лексикон и т.д. Языковая модель статистической модели языка, напротив, должна хранить, например, все комбинации глагола "купить" со всеми его прямыми дополнениями, чтобы иметь возможность правильного выбора падежа. "купить стол", "купить рыбу", "купить приставку" и так до бесконечности... И обощающе-иерархическая человеческая модель работают сразу на любом слове. Например, если вдруг бы появилось слово zzzz в английском, которое переводилось бы новым словом "хрямбля", человек сразу знает из своей обощающе-иерархической модели, что правильно будет "купить хрямблю".

Итого, языковая модель в человеческом мозгу представлена в таком компактном виде, которые не удалось воспроизвести на компьютере. И вы должны понимать, что статистический переводчик - это функциональная модель (т.е. та, которая имеет целью только получить аналогичный результат), а не воспроизводящая (т.е. та, которая помимо получения того же результата, полность повторяет принципы работы моделируемого объекта).


Цитата:
Допустим, вычислительные мощности позволяют резко увеличить контекст - до 20-50 слов.
Разве это повысит качество перевода?

Нет, так как вы забываете о таком понятии, как разреженность данных (data sparsity). Т.е. комбинации с контекстом до пяти слов слева и справа будут в текстах повторятся десятки, сотни, тысячи раз, в то время как почти 100% комбинаций с контекстом 20-50 слов будут встречаться ровно один раз на всём объеме данных, которые доступны в Интернете сейчас, вы просто не представляете, сколько нужно языковых данных, чтобы такой длинный контекст существенно помогал (в миллионы, а то и миллиарды раз больше, чем сейчас есть во всем Интернете).

Разреженность языковых данных вы можете проверить на таком простом примере из 5 слов, которые я написал выше прямо в этом посте - "иметь возможность правильного выбора падежа" - поищите её в кавычках (т.е. на полное совпадение) в Гуглу - поиск даст 0 результатов (т.е. до меня еще никто такую комбинацию 5 слов в Интернете не употребил). Более того, вы просто не представляете, сколько вам места понадобится, чтобы хранить весь этот контекст в 20-50 слов, который встретился в каждом уникальном случае один раз. Именно, поэтому наиболее активно исполльзуются модели с комбинаторикой до 3, больше - не имеет особого смысла, так как при огромном количестве данных, которые надо хранить, все статистические мдели не показывают сколько-нибудь значительного прироста качества. Именно поэтому, во всех моделях, и особенно в моделях с более комбинаторикой больше 3 используются методя отступа на порядок (порядки ниже) или же линейная интерполяция всех порядков.

Более того, у статистической языковой модели есть такое понятие как способность к обобщению (которое далеко от человесексого обобщения, конечно), - это способность успешно работать на новых данных, на которых она не тренировалась. Так вот исходя из этого параметра ценность контекста 20-50 - стремится к нулю. Так как вероятность того, что комбинация из 20 слов, виденных на тренировочных данных встретится в новом тексте также стремится к нулю.


Цитата:
Разве не лучше ввести какой-то параметр типа "тональности" всего текста, который можно посчитать достаточно быстро для 50-100 страниц, и найти похожий текст в базе по этому параметру, и брать вероятности по этому тексту? В этом случае перевод может быть даже лучше оригинала, если в базе тексты высокого качества и слова подобраны точнее для этой предметной области.

Один текст для статистической модели - это ничто, разреженность данных будет стремиться к бесконечности и способность модели к обобщению будет стремиться к нулю.

Кстати, некоторые системы машинного перевода практикуют принцип памяти перевода из того же Trados - если текст/абзац целиком найден в параллельных текстах - выдается его перевод оттуда.
Автор: XPerformer
Дата сообщения: 29.12.2013 21:48
Xoanon


Цитата:
Один текст для статистической модели - это ничто, разреженность данных будет стремиться к бесконечности и способность модели к обобщению будет стремиться к нулю.  

Поясню свою мысль. Речь веду только о технических текстах, понятно, что для художественных это не сработает.
Возьмем инструкции для программного обеспечения. Они содержат большое число повторяющихся фрагментов, и никого не смущают эти повторы. Здесь гораздо важнее донести смысл, чем разнообразие форм.
Как поступает обычно человек, когда ему нужно составить первый раз такую инструкцию? Изучает или вспоминает как написаны лучшие образцы этого жанра. [как офтопик могу заметить, что художники, музыканты тоже обучаются по этому принципу - просматривают много достойных произведений, вырабатывают вкус и т.д.]
Далее, инструкции для конечного пользователя и инструкции для программиста отличаются своей стилистикой, одни и те же слова могут употребляться в разных значениях, так как программист обладает большей квалификацией. Можно вручную рассортировать готовые инструкции по этому признаку, проставить какие-то баллы, которые я выше условно назвал "тональностью".
Если тексты на входе классифицировать по этому признаку, пусть даже вручную, и затем для перевода использовать только то подмножество параллельных текстов в базе, которое совпадает по этому признаку, это должно повысить качество перевода, и даже "причесать" исходный текст, если он был написан коряво.

Можно наблюдать как улучшается качество машинного перевода MSDN, думаю, они учитывают специфику переводимых текстов.
Добавлено. Резюме - на разных группах текстов вероятности одних и тех же словосочетаний будут получаться разные, поэтому имеет смысл сначала определить принадлежность текста к определенной группе, и использовать статистику только этой группы.


Цитата:
Нет, в том то и отличие, что человеческий мозг хранит языковую модель на другом принципе

очень интересно. Получается, алгоритмы нейронных сетей и другие из этой области в машинном переводе не используются?
Автор: Xoanon
Дата сообщения: 29.12.2013 22:40

Цитата:
Поясню свою мысль. Речь веду только о технических текстах, понятно, что для художественных это не сработает.
Возьмем инструкции для программного обеспечения. Они содержат большое число повторяющихся фрагментов, и никого не смущают эти повторы. Здесь гораздо важнее донести смысл, чем разнообразие форм.
Как поступает обычно человек, когда ему нужно составить первый раз такую инструкцию? Изучает или вспоминает как написаны лучшие образцы этого жанра. [как офтопик могу заметить, что художники, музыканты тоже обучаются по этому принципу - просматривают много достойных произведений, вырабатывают вкус и т.д.]
Далее, инструкции для конечного пользователя и инструкции для программиста отличаются своей стилистикой, одни и те же слова могут употребляться в разных значениях, так как программист обладает большей квалификацией. Можно вручную рассортировать готовые инструкции по этому признаку, проставить какие-то баллы, которые я выше условно назвал "тональностью".
Если тексты на входе классифицировать по этому признаку, пусть даже вручную, и затем для перевода использовать только то подмножество параллельных текстов в базе, которое совпадает по этому признаку, это должно повысить качество перевода, и даже "причесать" исходный текст, если он был написан коряво.


То, о чем вы говорите - это подстройка машинного переводчика под жанр и терминологию интересующего вас текста для перевода. Уже сейчас существуют коммерческие продукты, которые предоставляют вам инфрастурктуру для подтаривамемого под вас машинного переводчика (например, http://www.kantanmt.com/). Т.е. вы можете скормить интересующие вас параллельные тексты, а потом переводить ваши инструкции, и не надо никакого расчета "тональности" и ручного разбора, нужно много хороших паралелльных и одноязыяных текстов того жанра и терминологии, которые вас интересуют. Но обратите внимание, что сервис облачный, так как ресурсы нужны такие, которые не равны вашему одному компьютеру. Т.е. это к в вопросу о том, что разарбатывать полноценный машинный переводчик для обычного компьютера на базе существующих статистических методов - путь в никуда.


Цитата:
Можно наблюдать как улучшается качество машинного перевода MSDN, думаю, они учитывают специфику переводимых текстов.

Конечно, учитывают, они в основном берут паралелльные и одноязычные тексты из того же MSDN. Причем поиск по паралелльным текстам MSDN доступен любому пользователю (http://www.microsoft.com/language/en-us/Search.aspx), а подписчики MSDN могут их скачать в csv-формате.


Цитата:
очень интересно. Получается, алгоритмы нейронных сетей и другие из этой области в машинном переводе не используются?

А что по-вашему нейронная сеть - действительно воспроизводящая модель нейрона? Можно, наверное, считать и так, но, по-моему, это очень сложная математическая модель (которая занимается подбором магических коэффициентов на тренировочных данных, как и другие методы машинного обучения типа логистической регрессии, но которая благодаря внутренним скрытым состояниям может это делать более изощренно), которая в основном позволяет решать сложные нелинейные классификационные задачи и которая, к тому же, в случае огромного количества входных параметров очень-очень ресурсоёмка в обучении.

Машинный перевод, я думаю, возможно можно сделать на базе нейронных сетей, но они будут настолько гигантскими по количеству входных параметров и их будет несколько десятков на каждую языковую пару, и наверное, еще понадобится куча модулей, которые будут анализировать вход и чтобы кормить нужные входные данные нейронным сетям. А создание модулей анализа входа уже будет само по себе отдельными трудо- и ресурсоёмкими задачами, так что гораздо дешевле ограничиться стаистическими методами машиннного перевода.
Автор: XPerformer
Дата сообщения: 29.12.2013 23:01
Xoanon
спасибо, вы ответили на все мои вопросы. Хотелось понять, какие есть сейчас направления в этой сфере и какие развиваются, а какие нет и почему.

Цитата:
разарбатывать полноценный машинный переводчик для обычного компьютера на базе существующих статистических методов - путь в никуда.

думаю, если ограничиться переводом инструкций для утюгов и прочей бытовой техники, то вполне уложимся. А это тоже ниша

Цитата:
А что по-вашему нейронная сеть - действительно воспроизводящая модель нейрона?

я вообще не уверен, что модель нейрона соответствует реальному положению вещей. Но поскольку не специалист в этой сфере, спорить не буду.
Тем не менее, с годами я всё более подозрительно отношусь к тому факту, что с таким маленьким объемом оперативки и частотой процессора мы умудряемся разговаривать, ходить, играть на фортепиано и т.д., да еще и выполнять эти вещи параллельно
Хочется понять почему в википедии и книгах можно с такой детализацией прочитать, какие процессы происходят в мозгу, а имитировать их на компьютере мы не можем, даже с учетом лавинообразного роста мощностей и ресурсов последние годы.



Добавлено:
А еще такой вопрос.
Есть ли наработки по улучшению качества текста, исправления стилистических погрешностей и т.п.
Ворд конечно подчеркивает, но часто ошибается, и не делает исправлений автоматически. Но это не его основная функция.
Идея такая - если я быстро пишу какой-то текст и концентрируюсь в первую очередь на том, чтобы ничего не забыть, выстроить структуру документа, не потерять мысль. При этом страдает стилистика - неправильно подобраны слова по оттенку смысла, корявые предложения, пропущены предлоги и т.п.
Можно ли такую правку переложить на плечи компьютера?
Автор: Xoanon
Дата сообщения: 30.12.2013 01:22

Цитата:
думаю, если ограничиться переводом инструкций для утюгов и прочей бытовой техники, то вполне уложимся. А это тоже ниша

Это проблема рынка, если рынок - конечные пользователи, они почти всегда предпочтут бесплатный гугл-переводчик.


Цитата:
я вообще не уверен, что модель нейрона соответствует реальному положению вещей. Но поскольку не специалист в этой сфере, спорить не буду.
Тем не менее, с годами я всё более подозрительно отношусь к тому факту, что с таким маленьким объемом оперативки и частотой процессора мы умудряемся разговаривать, ходить, играть на фортепиано и т.д., да еще и выполнять эти вещи параллельно
Хочется понять почему в википедии и книгах можно с такой детализацией прочитать, какие процессы происходят в мозгу, а имитировать их на компьютере мы не можем, даже с учетом лавинообразного роста мощностей и ресурсов последние годы.


А смысл в том, что для имитации многих процессов в большинстве случаев выбраны функциональные модели, в то время как вопроизводящие, как правило, очень трудо-, ресурсо- и времязатратны. Так же проблема в том, что язык - сложный объект для моделирования (это и сам язык с его нестрогостью, неоднозначнастями и бесконечностью, и его лексикон, и модель знаний об окружающем мире, и логика, и т.д.). Никто не хочет вкладывать 20-30-50 лет деньги в построение воспроизводящей модели и поддержание соответствующей инфраструктуры. Бизнес есть бизнес

Хотя в некоторых сферах и функциональные модели (где объекты моделирования попроще) достаточно успешны, возьмите к примеру беспилотный автомобиль Гугла (http://ru.wikipedia.org/wiki/%D0%91%D0%B5%D1%81%D0%BF%D0%B8%D0%BB%D0%BE%D1%82%D0%BD%D1%8B%D0%B9_%D0%B0%D0%B2%D1%82%D0%BE%D0%BC%D0%BE%D0%B1%D0%B8%D0%BB%D1%8C_Google), где при помощи нвбора сенсоров и программного обеспечения на основе фильтров Калмана (http://ru.wikipedia.org/wiki/%D0%A4%D0%B8%D0%BB%D1%8C%D1%82%D1%80_%D0%9A%D0%B0%D0%BB%D0%BC%D0%B0%D0%BD%D0%B0) получился неплохой самоуправляемый автомобиль.


Цитата:
А еще такой вопрос.
Есть ли наработки по улучшению качества текста, исправления стилистических погрешностей и т.п.
Ворд конечно подчеркивает, но часто ошибается, и не делает исправлений автоматически. Но это не его основная функция.
Идея такая - если я быстро пишу какой-то текст и концентрируюсь в первую очередь на том, чтобы ничего не забыть, выстроить структуру документа, не потерять мысль. При этом страдает стилистика - неправильно подобраны слова по оттенку смысла, корявые предложения, пропущены предлоги и т.п.
Можно ли такую правку переложить на плечи компьютера?

Если такое было, это уже бы было достижение века Можно, конечно, сделать что-то на основе языковой модели, но это будет далеко от того чуда, которое вам бы хотелось иметь.
Автор: XPerformer
Дата сообщения: 30.12.2013 01:39

Цитата:
Если такое было, это уже бы было достижение века

Ну, теперь знаю, чем заняться на пенсии



Добавлено:

Цитата:
А смысл в том, что для имитации многих процессов в большинстве случаев выбраны функциональные модели, в то время как вопроизводящие, как правило, очень трудо-, ресурсо- и времязатратны.


Неужели никто не работает над тем, чтобы выяснить почему?
ведь понимание этого x-фактора, который позволяет мозгу превосходить компьютер, одним махом решит множество задач, для которых функциональный подход работает пока недостаточно хорошо.
Автор: Xoanon
Дата сообщения: 30.12.2013 01:46

Цитата:
Ну, теперь знаю, чем заняться на пенсии


А Гугл - это кстати не только три-четыре килограмма ценного поисковика и машинного переводчика. Он активно вкладывается в робототехнику - помимо проекта беспилотной робомашины, которому уже несколько лет, Гугл две недели назад приобрел компанию Boston Dynamics, производителя одних из самых продвинутых на данным момент механико-электронных роботов (правда, некоторых роботов детям на ночь не стоит показывать ):
https://www.youtube.com/watch?v=QVdQM47Av20
Автор: XPerformer
Дата сообщения: 30.12.2013 01:51
ролик с четвероногим уже довольно давно гуляет в интернете
И опять все очень подозрительно - калька с человека и живой природы. Неужели ничего совершеннее не придумывается?
Автор: Xoanon
Дата сообщения: 30.12.2013 01:51

Цитата:
Неужели никто не работает над тем, чтобы выяснить почему?
ведь понимание этого x-фактора, который позволяет мозгу превосходить компьютер, одним махом решит множество задач, для которых функциональный подход работает пока недостаточно хорошо.

Нет одного х-фактора. Есть множество факторов, которые нужно сложить чтобы получить результат. Некоторые, конечно, работают, возьмите к примеру проект Cyc Ontology (http://en.wikipedia.org/wiki/Cyc), который длится почти 30 лет (с 1984 года) - строят онтологическую модель знаний окружающего мира для искусственного интеллекта.

Добавлено:

Цитата:
ролик с четвероногим уже довольно давно гуляет в интернете
И опять все очень подозрительно - калька с человека и живой природы. Неужели ничего совершеннее не придумывается?


Совершеннее уже давно есть - летательные аппараты разного вида
Для многих повседневных задач, которые выполняет человек на пресеченной местности - ничего лучше и не придумаешь. Например, вам нужен робот-садовник который ходит от куста к кусту и обрезает ветки, ухаживает за клумбами, или сгребает листья...
Автор: XPerformer
Дата сообщения: 30.12.2013 02:09

Цитата:
Для многих повседневных задач, которые выполняет человек на пресеченной местности - ничего лучше и не придумаешь. Например, вам нужен робот-садовник который ходит от куста к кусту и обрезает ветки, ухаживает за клумбами, или сгребает листья...  

Дык и я о том же. Как так получилось, что человеческий организм наилучшим образом приспособлен для выполнения множества работ, за исключением экзотических - не так уж часто нам нужно летать или перемещаться с большой скорости, для этого есть машины и самолеты. Вот это и удивляет - и мозг и тело как-то само образовалось а мы тут насморк вылечить неделями не можем
Автор: MC
Дата сообщения: 25.02.2014 18:56
простите, возможно где-то было тогда ткните линком...

есть 2 файла .doc - оригинал и перевод, как теперь из них в Традос перенести термины? У меня куча переводов на/с эстонского языка, а базы терминов нет, нужно из готовых переводов создать личную базу терминов для дальнейшей работы с Традосом.

Спасибо!
Автор: Dmitry1940
Дата сообщения: 26.02.2014 12:45

Цитата:
есть 2 файла .doc - оригинал и перевод, как теперь из них в Традос перенести термины? У меня куча переводов на/с эстонского языка, а базы терминов нет, нужно из готовых переводов создать личную базу терминов для дальнейшей работы с Традосом.

В пакет программ Trados Studio входит отдельное приложение, предназначенное для автоматизированного вычленения терминологии, в том числе, из двуязычных текстов — MultiTerm Extract. Тем не менее, в этой программе нет встроенного выравнивателя параллельных текстов и в качестве входных файлов ME в режиме вычленения терминологии в двуязычном режиме принимает лишь файлы форматов TTX, TMW и TMX. Сам алгоритм вычленения и сопоставления терминов из исходного и переведенного текстов также оставляет желать лучшего, поскольку он основан на частотности употребления слова или выражения в сопоставляемых текстах и, разумеется, не учитывает лексическое значение слов или выражений при сопоставлении. Иными словами, алгоритм в подавляющем большинстве случаев «промахивается» и сопоставляет часто встречающееся слово или выражение из исходного текста со словом или выражением из переведенного текста с абсолютно другим лексическим значением, ввиду чего на этом этапе вычленения терминов в выдачу программы приходится вносить множество исправлений.

Как мне представляется, Вы можете сделать следующее:

1) Воспользовавшись любым выравнивателем параллельных текстов (WinAlign, ABBYY Aligner) выровнять Ваши выполненные переводы, получив на выходе файлы формата TMX;
2) Создать в MultiTerm Extract Bilingual Term Extraction Project, поместить в него получившиеся после выравнивания TMX, обработать их в программе, исправив неточности сопоставления;
3) Экспортировать результат работы либо в существующую терминологическую базу, либо в TXT с разделителями-табуляциями и собрать терминологическую базу из него. В последнем случае контент файла TXT с разделителями-табуляциями можно открыть в Microsoft Excel, сохранить как XLS\XLSX, задать в получившемся файле нужные заголовки столбцов и собрать терминологическую базу при помощи Glossary Converter или MultiTerm Convert.
Автор: Swordraven
Дата сообщения: 30.05.2014 19:36
SDL Trados 2014 SP1 (впрочем, было и на ранних версиях)...



Что может вызывать и как с этим бороться? При этом в буфер обмена всё копируется и оттуда вставляется.
Автор: likhenko
Дата сообщения: 19.06.2014 17:46
Всем доброго времени суток,
у меня не совсем стандартный вопрос, прошу прощения если оффтоп.

есть кто из Киева, кто неплохо разбирается и есть опыт восстановление поврежденных БД?
Просьба связаться в личку
Автор: hemoto12
Дата сообщения: 06.07.2014 01:28
Нужна хорошая прога перевести тексты с плохо знаемых языков.
Подскажите плиз, подойдёт ли для этого Trados (+ Lingvo)?
Автор: bert85
Дата сообщения: 08.07.2014 22:53
hemoto12
Не подойдет
Автор: hemoto12
Дата сообщения: 09.07.2014 14:38
bert85, почему? А какая подойдёт?
Автор: bert85
Дата сообщения: 09.07.2014 16:18
Наверное, гугл транслейт, ПРОМТ и прочие средства автоматического перевода подойдут.
CAT-программы не переводят сами. Они просто позволяют оптимальным образом использовать лингвистическую компетентность пользователя.
Автор: Dmitry1940
Дата сообщения: 30.09.2014 09:26
Мне выпала возможность принять участие в Translation Forum Russia, который проходил в г. Екатеринбурге 25–28 сентября. В первый день этого форума состоялось выступление директора клиентских сообществ (Director for Client Communities) SDL Пола Филкина, на котором он озвучил массу новой информации в отношении кратко- и долгосрочных планов развития продукции SDL, которой я хотел бы с вами поделиться.

Ближайшее будущее

На ноябрь 2014 года намечен выход SDL Trados Studio 2014 SP2.

Основные особенности версии

Полный отказ от Java.
Внедрение новой системы лицензирования — Safenet. Филкин также отметил, что будет происходить постепенный отход всех продуктов SDL от Nalpeiron.

Новые функции T2014 SP2

Фильтры в окне Concordance Search, позволяющие, например, сортировать сегменты в выдаче поиска по критерию даты занесения.
Возможность использования функции «Edit Source» на всех типах файлов.

Отдаленное будущее

SDL собираются придерживаться 18-месячного цикла релиза новых продуктов с выпуском сервис паков каждые 6 месяцев. Релиз следующей версии Студии (которую во время выступления Пол называл как «Studio 2015-2016») планируется на июнь 2015 года (дата предварительная). Помимо Студии, SDL собираются развивать облачное направление и создать некий аналог MemSource и ABBYY SmartCat (онлайн-редактор, ТМ и ТБ в облаке, функционал управления проектами).

Новые функции T2015-2016

Будет реализована долгожданная функция AutoCorrect.
Риббон-интерфейс будет автоматически подстраиваться под часто используемые пользователем функции. Неиспользуемые функции будут скрываться.
Будет реализована возможность править результаты распознавания PDF-файлов, генерируемых встроенным OCR-модулем.
Будет реализована функция, работающая по принципу «обратного элайнера». Например, если заказчик вносит какие-то правки в переведенный документ, выгруженный из Студии, и присылает его обратно переводчику или в БП для ознакомления, исправленный заказчиком перевод можно будет заэлайнить с SDLXLIFF, из которого был сгенерирован посланный заказчику файл, для получения актуализированного SDLXLIFF и обновления базы.
У пользователя появится возможность выбрать между двумя вариантами интерфейса окна редактора — тем, что появился начиная со Студии 2009, и классическим («исходник сверху — перевод снизу») на манер Trados 7. В облачном редакторе такая функция будет присутствовать сразу же после выхода всей облачной системы.
Стиль оформления интерфейса Studio 2015-2016 будет копировать стиль оформления интерфейса Office 2013.

Иная интересная информация и ответы на вопросы

SDL знают о том, что новый элайнер в некоторых отношениях является кривоватым (это мягко сказано), и якобы работают над тем, как его улучшить.
По утверждению Пола Филкина, SDL выкупили у разработчика приложений CodingBreeze все его приложения, размещенные на OpenExchange, и на следующей (начинающейся с 29 сентября) неделе выложат эти приложения в открытый доступ бесплатно (сейчас все они продаются за немалые деньги). Среди наиболее важных приложений, на мой взгляд, AnyTM, которое позволяет использовать при работе с документом TM любого направления, вне зависимости от того, совпадет ли ее языковая пара с языками документа, и Symbols Plugin, которое интегрирует в Студию таблицу символов и запоминает выбираемые оттуда символы в девять квик-слотов, которым определены горячие клавиши, позволяя пользователю легко набирать их с клавиатуры. Оказалось, что CodingBreeze — это разработчик SDL, который, по всей видимости, решил таким образом подзаработать. Можно сделать для себя определенные выводы по поводу корректности такого поведения по отношению к пользователям, но хотя бы теперь эти дополнения станут бесплатными.
На мой вопрос о том, связан ли с Java всем известный баг с нестабильным определением терминов после 250-го символа по порядку с начала сегмента, и означает ли отход от Java то, что этот баг больше не будет проявляться, Филкин ответил, что, как ни странно, нет, и баг этот обусловлен какими-то иными причинами. Разработчики SDL якобы все еще ищут решение.
На мой вопрос о том, планируется ли сделать команду для поиска выделенного слова по терминологической базе на манер Concordance Search по F3 (сейчас такой команды вообще нет, и, соответственно, байндить нечего), Филкин ответил, что напишет об этом разработчику, с которым держит прямой контакт в связи с отказом от Java, и, возможно, эта команда найдет реализацию в SP2.
Был задан вопрос о том, появится ли в этой версии возможность автоматического создания словарей AutoSuggest в фоновом режиме. Филкин ответил, что их компания думала о возможности реализации этой идеи, но каких-либо конкретных планов или обещаний на этот счет нет.
Был задан вопрос о возможности мерджить сегменты, разбитые по абзацу. Филкин ответил, что физически это реализовать очень сложно, но эти ограничения можно обойти при помощи чего-то под названием «виртуализация». В подробности вдаваться не стал, так что есть все основания полагать, что в Studio 2015-2016 эта функция реализации не найдет.
Был задан вопрос о возможности локализации интерфейса Студии на русский язык. Филкин ответил, что, рассматривая вопрос целесообразности внедрения в Студию новых языков интерфейса, они проанализировали наиболее часто используемые пользователями языковые пары, среди которых, помимо языков, доступных в интерфейсе, оказались русский и итальянский (как на язык, так и с языка в обоих случаях). Поэтому, если будет принято решение о внедрении новых языков в интерфейс Студии, итальянский и наш великий могучий будут первыми на очереди.
Был задан вопрос о возможности появления обоюднонаправленных ТМ. Филкин ответил, что поскольку с лингвистической точки зрения это некорректно по очевидным причинам, реализовывать это никто не торопится. Помимо этого, эта задача сопряжена с рядом технических сложностей. В целом, если у кого-то стоит необходимость использования одной и той же базы, но в обратном направлении, можно в качестве обходного маневра использовать AnyTM.
Автор: assspid
Дата сообщения: 17.10.2014 12:20
А можно ли в традосе автоматически (без создания новой) инвертировать существующую базу памяти? Есть у меня, допустим, память с направлением Eng->Rus, а мне по ходу работы понадобилось проверить, как применялся некий русский термин. Тупо прогнать его по Concordance не выходит...
Автор: Dmitry1940
Дата сообщения: 17.10.2014 13:23
assspid
Нельзя, вышеупомянутый плагин AnyTM позволяет автоматизировать процесс создания обратной базы.
Автор: aljabr
Дата сообщения: 16.11.2014 11:53
Не подскажите для с видео файлами и сабами ничего традос ещё не предложил нового ? Ищу программу для работы с аудио-видео файлами и сабами, но с возможностью комментирования определенных слов и фраз. Желательно с ведением истории изменений. Сейчас использую обычный редактор сабов. Проблема в том что комменты {пусть и в скобках} сливаются с титрами и это очень не удобно.
Автор: Crampas
Дата сообщения: 20.12.2014 10:19
Dmitry1940
спасибо за информацию. Очень познавательно и актуально
Автор: mirsi
Дата сообщения: 24.12.2014 06:26
SDL Trados Studio 2014 SP2
Не пользовался недели две, работал в других CAT.
Вчера взял в работу файл ttx (920 кб). Раньше с этим форматом проблем не было. Сейчас Studio жутко тормозит. Довольно долго открывает и сохраняет файл (в т.ч. автоматически), при переходе к следующему сегменту задумывается секунд на 5. Есть подозрение на MSWord Grammar Checker.
На других файлах пока не проверял. Работаю с Trados 2007 (TagEditor) - никаких тормозов не наблюдается.
Автор: Dmitry1940
Дата сообщения: 24.12.2014 12:39
mirsi

Цитата:
Есть подозрение на MSWord Grammar Checker.

Именно в нём проблема и есть, тормоза вызваны проверкой грамматики в реальном времени. В настройках плагина вырубите галку «Check Grammar during translation» и проверяйте грамматику при помощи F8 по завершении работы над файлом (помните, что настройки модулей верификации содержатся не только в опциях Студии, но также переносятся в опции проекта при его создании). Если отчёт об ошибках будет генериться неимоверное количество времени, также снимите галку «Show error description (generates report slowly)»: http://i.imgur.com/1fY0Z3p.png. В последней на данный момент версии плагина (1.0.0.10) проблема с тормозами всё ещё не устранена.

Эти тормоза (вкупе с отсутствием визуального отображения грамматических ошибок в сегменте во время работы) серьёзно уменьшают ценность плагина, и из-за них я перестал его использовать вовсе. При необходимости проверки грамматики целесообразнее и быстрее будет делать Preview документа (Ctrl+Shift+P, доступно в связке TTX-SDLXLIFF) и проверять ее средствами MS Word (находить ошибки в превьюшном одноязычном документе и вносить необходимые правки непосредственно в двуязычный документ).
Автор: mirsi
Дата сообщения: 24.12.2014 16:08
Dmitry1940
Премного благодарен за ценную информацию, которая подтвердила мои сомнения относительно MSWord Grammar Checker. Попробую еще поиграться с настройками, но совет относительно проверки вне Studio кажется реально очень ценным.
Автор: mirsi
Дата сообщения: 25.12.2014 17:00
Dmitry1940
Собственно, раньше я и проверял конечные файлы отдельно от Studio, но дело в том, что многие ttx изготовлены из inx, а с ними беда. Есть ли относительно простой способ проверки таких файлов?
Автор: Dmitry1940
Дата сообщения: 26.12.2014 15:28
mirsi
Два соображения, оба из которых предполагают задействование ресурсов MS Word:

1. Скопировать весь текст из правой колонки документа в пустой вордовый документ, проверять грамматику там со внесением изменений в двуязычный документ.
2. Сделать Export for External Review, проверять грамматику по документу экспорта, либо скопировать колонку «Target segment» в отдельный вордовый документ, в обоих случаях со внесением изменений в двуязычный документ. Не стану рекомендовать вариант со внесением изменений в файл экспорта и Update from External Review, т.к. толком никогда не пользовался этой функцией и читал про то, что у некоторых людей не получается обратно импортировать контент файла из файла экспорта.
Автор: mambo
Дата сообщения: 26.12.2014 22:05
Всех с наступающим Новым годом, поделитесь у кого есть SDL Trados Studio Symbols
Автор: SlyBeaver
Дата сообщения: 15.02.2015 23:29
Здравствуйте. Очень интересует следующий вопрос по функциональности Trados:
Есть документация на русском языке в Help and Manual (xml). Допустим, её переведут на английски с помощью Trados. После этого в исходном файле появятся какие-то дополнения, исправления. Есть ли у программы возможность как-то проанализировать разные версии исходных фалов и оставить для перевода только нововведения, чтобы не переводить каждый раз документ полностью?

Страницы: 12345678910111213141516171819202122232425

Предыдущая тема: Ag Copy v 2.5 - программа для быстрого копирования файлов


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.