Результаты поиска по запросу "sqlbulkcopy"

2 ответа

«ОШИБКА: дополнительные данные после последнего ожидаемого столбца» при использовании PostgreSQL COPY

Пожалуйста, потерпите меня, так как это мой первый пост.я пытаюсь запуститьCOPY команда в PostgreSQL-9.2 для добавления таблицы с разделителями табуляции из ...

2 ответа

Как получить сгенерированные сервером значения Identity при использовании SqlBulkCopy

Я знаю, что могу выполнить массовую вставку в свою таблицу с помощью столбца идентификаторов, не указав

2 ответа

Массовая стратегия вставки из C # в SQL Server

В нашем текущем проекте клиенты будут отправлять сборник сложных / вложенных сообщений в нашу систему. Частота этих сообщений составляет ок. 1000-2000 мсг / ...

ТОП публикаций

2 ответа

Невозможно вставить таблицу данных с помощью sqlbulkcopy

Это мой код со следующими столбцами и в БД, эти столбцыnvarchars. SqlBulkCopy bulkCopy = new SqlBulkCopy(connection, System.Data.SqlClient.SqlBulkCopyOptions.Default, transaction); bulkCopy.DestinationTableName = "Test"; ...

2 ответа

«ОШИБКА: дополнительные данные после последнего ожидаемого столбца» при использовании PostgreSQL COPY

Пожалуйста, потерпите меня, так как это мой первый пост. Я пытаюсь запуститьCOPY [http://www.postgresql.org/docs/9.2/static/sql-copy.html]команда в PostgreSQL-9.2 для добавления таблицы с разделителями табуляции из файла .txt в базу данных ...

3 ответа

Запустить триггер для каждой вставленной строки, используя SqlBulkCopy

3 ответа

Получить IDataReader из типизированного списка

3 ответа

SqlBulkCopy в таблицу, в которой значения столбца по умолчанию завершаются ошибкой, когда в исходной строке DataTable есть DBNull.Value

3 ответа

ха-ха .. и ты кусаешься сильно ;-)

я есть проблема преобразования строки в дату с использованием SQL Bulkcopy в asp.net 3.5 с C # Я прочитал большой файл CSV (сCSV-ридер [http://www.codeproject.com/KB/database/CsvReader.aspx]). Одна из прочитанных строк должна быть загружена в ...

3 ответа

если вы строите только 1 тыс. строк за один раз вместо 200 м, диспетчеру памяти будет гораздо проще хранить такой объем данных. кроме того, вы почти наверняка получите обмен с 200 м записей в памяти за один раз

я есть следующий (упрощенный) код, который я хотел бы оптимизировать по скорости: long inputLen = 50000000; // 50 million DataTable dataTable = new DataTable(); DataRow dataRow; object[] objectRow; while (inputLen--) { objectRow[0] = ...