|
22.04.2010, 18:40 | #1 |
Участник
|
И даже тогда можно не отказываться от преимуществ конструкции delete_from. 'Порционного' удаления можно добиться при помощи фильтрации.
X++: SALESTABLE_TONTRA40478 Table; date month = 01\03\2010; RecId minRecId, maxRecId, fromRecId, toRecId; int partSize = 10000 // Число подобрать надо; select minof(RecId) from Table where Table.month == month; fromRecId = Table.RecId; select maxof(RecId) from Table where Table.month == month; toRecId = Table.RecId; for(fromRecId = minRecId; fromRecId <= maxRecId; fromRecId += partSize) { toRecId = fromRecId + partSize; Table.skipDatabaseLog(true); Table.skipDeleteActions(true); Table.skipDeleteMethod(true) delete_from Table where Table.month == month && Table.RecId >= fromRecId && Table.RecId <= toRecId; } |
|
22.04.2010, 18:47 | #2 |
Участник
|
Сложно то как
Да. Но брать порциями по PartSize - бесполезно. В интервале может быть и 10тыс записей, и ни одной. Достаточно просто сузить диапазон. А главное - обрамить tts-скобками X++: SALESTABLE_TONTRA40478 Table; date month; while(true) { select minof(month),minof(recid) from Table; if( !Table.recid ) break; month = Table.month; ttsbegin; Table.skipDatabaseLog(true); Table.skipDeleteActions(true); Table.skipDeleteMethod(true) delete_from Table where Table.month == month; ttscommit; } |
|
22.04.2010, 19:10 | #3 |
Участник
|
Зато универсально. Таким способом можно удалить любую другую выборку.
Цитата:
На сколько я понял условие задачи. Удаляють нужно не все записи из таблицы, а только за определённый месяц. Причём даже за один месяц число записей > 600 000; Зачем? Или это шутка юмора такая? |
|
22.04.2010, 19:16 | #4 |
Участник
|
Цитата:
Но может быть просто поискать другое поле? Которое и с индексом, и дает относительно небольшое число записей? Например, не месяц, а дату. Нет. Если база установлена в Recovery Model = Full, то разницы действительно не будет. Если же база установлена в Recovery Model = Simple, то после окончания каждой транзакции transaction log будет очищаться. вполне возможно, что у автора transaction log сильно растет, а на диске места свободного мало. Вот и мучается SQL, затрачивая каждый раз много времени на увеличение transaction log. |
|
22.04.2010, 19:20 | #5 |
Участник
|
Цитата:
И да, естественно, включать индекс по RecId будет необходимо. Это понятно, я просто рассчитывал, что конструкция delete_from cамостоятельно открывает и закрывает транзакцию. |
|
|
За это сообщение автора поблагодарили: mazzy (2). |
22.04.2010, 19:21 | #6 |
Участник
|
Э-э-э... По-моему, нет. Хотя могу ошибаться.
|
|
23.04.2010, 10:46 | #7 |
Участник
|
В течение полутора лет ежедневно выполняется аналогичная задача, общее количество удаляемых записей сейчас порядка 500 тыс.ежедневно, удаление идет блоками с фиксированным числом записей точно так как выше написал sukhanchik. Попробовал сделать через delete_from c отключением skipDatabaseLog(true), skipDeleteActions(true), skipDeleteMethod(true) как написал lev - стало удаляться быстрее примерно в 4-5 раз. Отличный совет, респект. Блокировок и зависаний нет, т.к. делается не один delete_from на весь массив записей, а отдельными транзакциями по складам магазинов (около 40).
|
|
22.04.2010, 19:00 | #8 |
Administrator
|
Цитата:
Конечно брать тупо по 10 (20,30) тыс. записей - тоже не вариант - объем записей бывает разный. В общем - надо искать "золотую" середину.
__________________
Возможно сделать все. Вопрос времени |
|
|
За это сообщение автора поблагодарили: mazzy (2). |
22.04.2010, 19:02 | #9 |
Участник
|
Цитата:
причем в сообщении автора условие по этом полю и было. вполне возможно, что проблема с отсутствии индекса и в Full Table Scan. |
|
Теги |
ax2009, ccadoconnection, delete_from, оптимизация, удаление |
|
|