Тем не менее, вот примерный план того, как вы можете проанализировать данные, которые вы показали.

я есть следующий скрипт bash, который я буду использовать для анализа всех файлов отчетов в текущем каталоге:

#!/bin/bash    


# methods
analyzeStructuralErrors()
{ 
    # do something with $1
}

# main
reportFiles=`find $PWD -name "*_report*.txt"`; 
for f in $reportFiles
do
    echo "Processing $f"
    analyzeStructuralErrors $f
done

Мои файлы отчетов отформатированы так:

Error Code for Issue X - Description Text - Number of errors.
col1_name,col2_name,col3_name,col4_name,col5_name,col6_name
   1143-1-1411-247-1-72953-1
   1143-2-1411-247-436-72953-1
   2211-1-1888-204-442-22222-1
Error Code for Issue Y - Description Text - Number of errors.
col1_name,col2_name,col3_name,col4_name,col5_name,col6_name
   Other data
   .
   .
   .

Я ищу способ просмотреть каждый файл и агрегировать данные отчета. В приведенном выше примере у нас есть две уникальные проблемы типа X, которые я хотел бы решить в analyStructural. Другие типы проблем могут быть проигнорированы в этой процедуре. Кто-нибудь может дать совет, как это сделать? Я хочу прочитать каждую строку, пока не достигну следующей ошибки, и поместить эти данные в некую структуру данных.

Ответы на вопрос(3)

Ваш ответ на вопрос