Maxteams » Сб ноя 03, 2012 12:01
Добрый день, bulanova-olga.
Зачем вы так набросились на Marko? Ну, хотел человек показаться умным. Что же в этом плохого? Мы все этого хотим. Правда, видно, что он не владеет полностью информацией. Зато он очередной раз «засветился» на форуме. Это говорит о его стремлении быть полезным и значимым на этом форуме. Это тоже нужно приветствовать. Правда, не всегда это у него получается. Но это пусть останется на его совести.
А теперь я попробую ответить на ваши вопросы. Marko прав, когда писал, что теоритически «словарных статей» (вы употребили именно этот термин, а уважаемый Cowboy почему-то начал рассуждать о «терминах») может быть «сколько угодно», но практически дело обстоит несколько иначе. Сейчас я постараюсь описать свой опыт в создании базы, в которой очень много словарных статей.
Я пробовал сконвертировать в одну базу примерно 2млн словарных статей. На первом этапе я столкнулся с несколькими проблемами. Первая: возможности Excel. Вторая: время конвертации файла Excel при помощи программы SDL MultiTerm Convert. Решая первую проблему, я создал несколько файлов Excel по 150т строк. С этим проблем не было. И я приступил ко второму этапу создания базы: т.е. конвертации в программе MultiTerm Convert. И тут выяснилось, что для конвертации одного файла Excel, который содержит 150т строк, нужно непрерывной работы компьютера в течение одной недели. Этого я себе позволить не мог. У меня всего один компьютер, и он мне постоянно нужен для работы. Поэтому я решил поступить по-другому.
Я разделил весь материал примерно по 45т. У меня получилось 52 файла Excel. После этого я приступил к их конвертации. В день у меня получалось сконвертировать по два файла. В итоге на весь процесс конвертации у меня ушел один месяц. После этого я создал пустую базу в программе MultiTerm и приступил к экспорту полученных файлов в свою базу. До 300т у меня шло все хорошо, без всяких проблем, но когда в базе уже было более 300т, то при последующем экспорте очередного файла MultiTerm начал постоянно выдавать ошибку, в которой говорилось, что экспортируемый файл содержит ошибку и экспортирован не полностью. Выяснилось, что файлы экспортируют только половину своего содержания, т.е. экспортируется только половина словарных статей.
Мне это не понравилось, и я решил создать несколько баз с объемом примерно в 250-260т словарных статей (можно было разбить и на меньшее количество). В итоге у меня получилось 13 баз с общим количеством словарных статей примерно около 2 млн, из размер составляет 13.6ГБ. Trados распознает их с задержкой в 2-3 секунды (правда, у меня 8ГБ оперативной памяти, думаю, что если увеличить память до 16ГБ, то время распознавания сократится).
Из всего этого, основываясь на своем личном опыте, могу сделать вывод, что не рекомендуется создавать базу, в которой более 300т словарных статей, и компьютер должен иметь, как минимум, 8ГБ оперативной памяти.
На данный момент база проверена в работе, не дает никаких сбоев, с удовольствием ею пользуюсь сам и могу поделиться с теми, кому она нужна. По всем вопросам пишите в личку.