Iterative algorithm for offsets, scale and rotate estimation for television image superposition with additive and multiplicative noise

Cover Page

Cite item

Full Text

Abstract

We describe the iterative algorithm for television image superposition. The superposition is defined by offsets, scale, and rotates. Also additive and multiplicative noise influences the image. The main aim of developing this algorithm is to reduce the time of processing images for estimation superposition parameters. Reducing processing time is provided by reducing the set of reference points, which defines the superposition. The initial coordinate of the reference points is refined at the process of the algorithm work for acceptable superposition of the television images. The superposition parameters are divided into two groups. Offsets belong to the first group, scale and rotate belong to the second group. The parameters in each group are estimated independently. The iterative procedure uses the offsets for estimation scale and rotate, and after it uses scale and rotates for estimation of the offsets. This process is repeated. The next iteration approximates the rate to the real value of the superposition parameters. The developed algorithm allows reducing processing time at 25 times faster than the brute force algorithm for the test data. The test data include two images; the first image has the resolution 288 × 384 pixels, the second image has the resolution 128 × 128 pixels. The second image is the fragment of the first image. Also at the end of the article, the numerical simulation had been presented. The simulation shows the dependences of error estimation of parameters from the noise power.

Full Text

Введение

Совмещение телевизионных изображений является важной задачей в научных исследованиях и технических приложениях. Вопросы совмещения решаются в медицине (совмещение гистологических изображений, трехмерная реконструкция и т. д.) [1], в авиационной технике (совмещение подстилающей поверхности) [2; 3], в железнодорожной сфере (поиск эталонных изображений в видеопотоке для оценки смещения рельсов относительно шпальной решетки), а также в различных системах индексации данных (сопоставление портретных фотографий, поиск изображения по фрагменту и т. д.) [4–7].

Из-за большого объема данных, содержащихся в изображениях, использование алгоритмов оценки параметров, основанные на методе полного перебора, приводит к существенному снижению производительности алгоритма совмещения.

Оценка параметров происходит по метрике (как правило, по коэффициенту корреляции). Количество метрик равно количеству сочетаний оцениваемых параметров. При этом снижение производительности связано с преобразованием изображений, которых будет столько же, сколько и сочетаний параметров.

По этой причине актуальной проблемой является разработка принципов оценки параметров, отличных от принципов полного перебора. Они должны обеспечивать более высокую производительность. Одним из таких принципов является итерационный метод оценки параметров. В данной статье представлен алгоритм совмещения, в основе которого лежит итерационная процедура.

Обзор существующих работ

Задача совмещения изображений известна очень давно и по этой причине разработаны различные подходы, позволяющие повысить скорость обработки.

Также следует отметить, что ряд подходов не являются универсальными и позволяют решить задачу, если выполняются определенные ограничения.

Если совмещаемые изображения связаны между собой только плоскопараллельным смещением, то для повышения скорости вычислений может быть использовано:

– расчёт свёрток на базе преобразования Фурье [4; 7–9];

– метод «пирамид изображений» для уменьшения размерности данных в 2n × 2n раз [10; 11].

Если совмещаемые изображения связаны между собой плоскопараллельным смещением и смещение сравнимо по величине с шагом дискретизации, то для повышения скорости вычислений может быть использован метод линеаризации [12]. Производиться разложение сигналов в ряд и параметры оцениваются в результате решения системы линейных уравнений.

Также существует модификация этого метода для учета поворота, если угол не превышает 15°. Авторы статьи [13] предлагают кроме разложения сигналов в ряд вводить замену тригонометрических функций синуса и косинуса на приближенные значения. Повышение скорости вычислений также обеспечивается за счет решения в аналитическом виде.

Если совмещаемые изображения связаны между собой смещением, масштабом и поворотом, то для повышения скорости вычислений может быть использован метод сопоставления реперных точек. Реперные точки – это, как правило, локальные экстремумы. Сопоставление реперных точек проводиться за счет совмещения фрагментов в окрестности этих точек. Фрагменты содержат меньшее количество элементов, чем исходные изображения. За счет этого получается выигрыш в скорости обработки. Этот метод часто ассоциируется с дескрипторами [14–16], который представляет собой вектор, описывающий фрагмент изображения, малочувствительный к масштабным искажениям и повороту. Серьезным недостатком этого метода является неверное сопоставление отдельных фрагментов и, соответственно, последующее исправление данной ситуации.

Если смещение не превышает +/–10 % исходного изображения, масштаб +/–20 %, а поворот +/–30°, то можно использовать метод раздельной оценки [4–7]. В методе отдельно друг от друга оцениваются две группы параметров:

– смещения вдоль координатных осей;

– масштаб и поворот.

При этом используется декартовая и логарифмически-полярная система координат. Метод позволяет уменьшить число преобразований изображений (в сравнении с методом проверки всех возможных комбинаций), тем самым обеспечивая повышение скорости обработки.

Разработанный итерационный алгоритм наиболее близок к алгоритмам раздельной оценки параметров совмещения. Но он характеризуется менее строгими органическими по масштабу (+/–50 %) и повороту (+/–180°).

Исходные данные

На рис. 1 представлены изображения, которые будут использованы для совмещения.

 

Рис. 1. Исходные изображения: f(x, y) (а), g(x, y) (б)

Fig. 1. Initial images: f(x, y) (a), g(x, y) (b)

 

На рис. 1, а показано изображение f(x, y), которое является фрагментом изображения g(x, y). На рис. 1, б на изображении g(x, y) показана область, соответствующая f(x, y).

Параметры совмещения:

– смещение вдоль оси абсцисс: h = 200 пикселей;

– смещение вдоль оси ординат: p = 20 пикселей;

– масштаб: a = 0,8;

– поворот: j = 30°;

– мультипликативная помеха: l = 1,2;

– аддитивная помеха: g = 20 у.е.

Примечание: у.е. описывает яркости пикселя изображения, кодируемая числом от 0 до 255 у.е.

Эти сигналы будут использованы для проведения численного моделирования для тестирования разработанного алгоритма.

Исходные данные

Изображение представляет собой двумерный сигнал с равномерным шагом дискретизации.

Параметрическая модель, связывающая между собой изображения, имеет следующий вид:

fxi,yi=sxi,yi+kxi,yi;gxi,yi=λsui,wi+γ+mxi,yi,(1)

ui=αxicosφαyisinφ+h;wi=αxisinφ+αyicosφ+p,(2)

где f(x, y), g(x, y) – совмещаемые изображения, h, p – смещения вдоль оси абсцисс и ординат, α – масштаб, φ – поворот, λ, γ  – мультипликативная и аддитивная помеха.

Совмещение определяется параметрами {h, p, α, φ, λ, γ}. Для оценки параметров будет использован критерий максимума коэффициента корреляции:

Rθ=i=1Ngxi,yifxi,yi,θ/Ni=1Ngxi,yi/Ni=1Nfxi,yi,θ/N//i=1Ng2xi,yii=1Ngxi,yi2/N12××i=1Nf2xi,yi,θi=1Nfxi,yi,θ2/N12, (3)

θ^=argmaxθRθ, (4)

где θ={h, p, α, φ, λ, γ}, N – это количество пикселей изображения.

Критерий, основанный на вычислении коэффициента корреляции, не зависит от параметров λ и γ. В этом можно убедиться, рассчитав коэффициент корреляции для двух произвольных векторов {Ii, Yi} и для {Zi=λIi+γ, Yi}. Коэффициент корреляции для {Ii, Yi} будет равен коэффициенту для {Zi, Yi}.

По этой причине, если оценены параметры {h^, p^, α^, φ^}, то параметры {λ, γ} могут быть оценены по методу наименьших квадратов:

 λ^,γ^==argminλ,γi=1Nλfxi,yi,θ+γgxi,yi2.(5)

λ^=SgSfNSfgSf2NEf, (6)

γ^=SgSfgSgEfSf2NEf, (7)

где 

Sf=i=1Nfxi,yi,θ,   Sg=i=1Ngxi,

Sfg=i=1Nfxi,yi,θgxi,

Ef=i=1Nf2xi,yi,θ,   θ=h^,p^,α^,φ^,

fxi,yi,θ – сигнал после преобразования с учетом найденный смещений, масштаба и угла поворота.

Таким образом, количество параметров, которые достаточно оценить уменьшается с шести до четырех.

Оценка масштаба и поворота

Если известно соответствие между двумя точками на изображениях, то можно оценить масштаб и поворот, используя логарифмически-полярную систему координат.

Пусть точка (x0, y0) изображения f соответствует точке (u0, w0) изображения g и пусть эти точки связаны между собой выражением (2), т. е. индекс i = 0. Пусть некоторая точка (x, y) изображения f соответствует точке (u, w) изображения g.

Обозначим координату точки (x, y) относительно (x0, y0) в логарифмически-полярной системе координат как (r, ang). Их значения будут определяться по формулам:

ρ=xx02+yy02, (8)

r=log2ρ, (9)

ang= atan2xx0,yy0. (10)

Примечание: atan2 – это функция с двумя параметрами, возвращает значение арктангенса выражения (yy0)/(x x0) в радианах, в отличие от арктангенса имеет область значений (–π; π) (в арктангенса – (–π/2; π/2)).

Координаты точки (u, w) относительно (u0, w0) в логарифмически-полярной системе координат обозначим как (r', ang'). Ниже представлен вывод выражений для них.

uu0=α(cos(φ)xsin(φ)y).

ww0=α(sin(φ)x+cos(φ)y).

ρ'=uu02+ww02==αxx02+yy02.

С учетом того, что α>0, то: 

ρ'=αxx02+yy02=αρ.

r'=log2ρ'=log2(α)+log2ρ=log2(α)+r. (11)

Рассмотрим выражение:

tgang'=ww0uu0==sinφxx0+cosφyy0cosφxx0sinφyy0.

Если умножить числитель и знаменатель дроби на выражение 1cos(φ)(xx0), то выражение tg(ang') можно записать в виде:

tgang'=tgφ+yy0xx01gφyy0xx0==tgφ+tgang1gφtgang=tgφ+ang.

ang'=ang+φ. (12)

Таким образом, можно записать, что:

(r',ang')=(r+log2(α),ang+φ). (13)

На рис. 2 показан пример оценки масштаба и поворота по изображениям в логарифмически-полярной системе координат. На рис. 2, а показано изображение g. На рис. 2, б показан фрагмент, соответствующий изображению f. Он выделен прямоугольником. Смещения вдоль осей определяют масштаб и поворот.

 

Рис. 2. Оценка масштаба и поворота

Fig. 2. Evaluation of scale and rotation

 

При известном значении масштаба и поворота изображение f можно преобразовать таким образом, чтобы оно являлось фрагментом изображения g, которое можно совместить плоскопараллельным смещением. Оценить смещения можно известными способами [8–11].

Сложность реализации описанного подхода заключается в том, что не известны реперные точки (x0, y0) и (u0, w0) на изображениях f и g, которые позволили бы оценить сначала масштаб и поворот, а затем смещения.

Однако, если координаты этих точек известны с некоторой погрешностью, то разработанный алгоритм позволяет уточнить первоначально выбранные координаты реперных точек, тем самым обеспечивая совмещение телевизионных сигналов.

Описание алгоритма

Исходными данными являются: f(xi, yi), i = 1, .. N – первое изображение, g(uj, wj), j = 1, .. K – второе изображение.

Примечание: координаты пикселов сигнала g переобозначены как (u, w) вместо (x, y), чтобы было очевидно, какое изображение обрабатывается на том или ином шаге алгоритма.

Выходными данными являются: h^, p^ – смещения вдоль координатных осей; φ^, α^ – угол поворота и масштаб; γ^, λ^  – значение аддитивной и мультипликативной помехи.

Алгоритм состоит из следующих шагов.

  1. Загрузка изображений f(xi, yi) и g(uj, wj).
  2. Предварительный выбор точек (x0, y0) и (u0, w0).

Примечание: так как изображение f является фрагментом изображения g, то координаты (x0, y0) фиксируются и не меняются; для удобства представления в логарифмически-полярной системе они равняются координатам центрально пикселя (т. е. при размере 128 × 128 пикселей, (x0, y0) = (64, 64)); координаты (u0, w0) неизвестны, по этой причине используется метод перебора, однако шаг может выбираться из условия 0,1 размера изображения, при размерах 128 × 128 пикселей шаг был выбран равным 10 пикселей (т. е. немного меньше, чем 12,8); другими словами проверялись координаты u0 = 1, 11 .. 381, w0 = 1, 11, .. 281 (размер изображения g равняется 288 × 384).

  1. Выбор количества итераций L (примеч.: в работе L = 4).
  2. Инициализация матрицы преобразования в соответствии с количеством итераций:

M1=100010001, M2=100010001   M=L100010001.

  1. Цикл по количеству итераций, k = 1.

5.1. Определение промежуточной матрицы преобразования Mres:

если k = 1, то Mres = M1,

если k = 2, то Mres = M2M1,

если k = L, то Mres = ML···M2M1.

5.2. Вычисление положение точек первого изображения (xj', yj') в соответствии с матрицей преобразования Mres:

x'i = xiMres(1,1) + yiMres(1,2) + Mres(1,3),

y'i = xiMres(2,1) + yiMres(2,2) + Mres(2,3),

5.3. Вычисление координат реперных точек, относительно которых происходит преобразование из декартовой в логарифмически-полярную систему координат:

X0 = x0Mres(1,1) + y0Mres(1,2) + Mres(1,3),

Y0 = x0Mres(2,1) + y0Mres(2,2) + Mres(2,3),

U0 = X0,

W0 = Y0.

5.4. Вычисление матрицы Mk по данным f(x'i, y'i), (X0, Y0), g(uj, wj), (U0, W0) согласно процедуре раздельной оценки параметров (процедура описана ниже).

5.5. Проверка на выход из цикла: k = k +1, если kL, то выход из цикла, в противном случае переход к п. 5.1.

  1. Оценка параметров h^, p^, φ^, α^  по матрице Mres:

h^=Mres1,3,   p^=Mres2,3,

α^=Mres21,1+Mres21,2,

φ^=arcsinMres2,1Mres21,1+Mres21,2180/π.

  1. Оценка параметров γ^, λ^ по формулам (6-7)
  2. Выход из программы.

Ниже описана процедура раздельной оценки параметров (п. 5.4).

Входные данные: f(x'i, y'i), i = 1, .. N – первое изображение, g(uj, wj), j = 1, .. K – второе изображение. (X0, Y0), (U0, W0) – реперные точки.

Выходные данные: M – матрица преобразования размером [3 × 3].

    1. Преобразование координат (x'i, y'i) в логарифмически-полярную систему координат относительно точки (X0, Y0).
    2. Преобразование координат (uj, wj) в логарифмически-полярную систему координат относительно точки (U0, W0).
    3. Совмещение сигналов f и g в логарифмически-полярной системе. В результате оцениваются смещения log2(αr) и φr (см. рис. 2).
    4. Вычисление промежуточной матрицы преобразования:

mA=αrcosφrαrsinφrαrsinφrαrcosφr00      U0x0cosφry0sinφrW0x0sinφr+y0cosφr1.

  1. Преобразование координат (x'i, y'i) в соответствии с матрицей mA. Формирование (x''i, y''i).
  2. Совмещение сигналов f(x''i, y''i) и g(u, w) в декартовой системе координат. В результате оцениваются смещения вдоль координатах осей hr и pr.
  3. Вычисление промежуточной матрицы преобразования:

mB=10hr01pr001.

  1. Вычисление выходной матрицы М:

M=mBmA.

Численное моделирование

Для определения погрешности оценки параметров совмещения было проведено численное моделирование, которое заключалось в добавлении помехи с гауссовым распределением к ординатам одномерных сигналов.

При выбранном значении мощности (дисперсии помехи, σn2) проводилась серия опытов, по которым оценивалась погрешность оценки параметра.

В качестве погрешности выступало значение среднеквадратичной величины (RMS):

RMS=i=1naia2n, (14)

где a – действительное значение параметра; ai – измеренное значение параметра в i-м опыте; n – количество опытов.

По результатам численного моделирования был построен график зависимости RMS от среднеквадратичного отклонения (СКО) помехи (σn).

Результаты численного моделирования приведены на рис. 3.

 

Рис. 3. Погрешность оценки параметров

Fig. 3. Error in parameter estimation

 

Разработанный алгоритм сравнивался с алгоритмом полного перебора: проверялись все возможные варианты точки (u0, w0), т. е. u0 = 1,2 .. 384, w0 = 1,2 .. 288. И для каждой точки происходило преобразование в логарифмически-полярную систему координат. Погрешности у обоих алгоритмов почти совпадают. Различия наблюдаются при мощности шума σn>20 у.е. Различия возникают вследствие того, что итерационный процесс не приводит к верной оценке параметров за четыре итерации. При увеличении количества итераций до шести графики погрешностей у сравниваемых алгоритмов совпадают. Однако, увеличение итераций, ожидаемо, приводит к снижению скорости обработки и оправдано только при высоком уровне шума, который, как правило, свидетельствует о нештатной работе телевизионного оборудования.

Скорость вычисления у разработанного алгоритма при четырех итерациях в 25 раз выше, чем у алгоритма полного перебора.

Таким образом, разработанный алгоритм характеризуется погрешностью оценки параметров, как в алгоритме полного перебора, но обладает более высоким быстродействием.

Заключение

Разработанный алгоритм был апробирован для поиска изображений в потоковом видео в видеосистеме вагона-путеизмерителя в рамках задачи индексации («быстрого поиска»).

Разработанный алгоритм может быть использован в медицинских целях, в аэрокосмической отрасли, охранных системах и для расширения функциональных возможностей многокамерных систем технического зрения.

Разработанный алгоритм обеспечивает высокую скорость обработки видеоданных и может быть использован в задачах совмещения изображений, ориентированных на работу в режиме реального времени.

×

About the authors

Rinat R. Diyazitdinov

Povolzhskiy State University of Telecommunications and Informatics

Author for correspondence.
Email: rinat.diyazitdinov@gmail.com
ORCID iD: 0000-0001-6360-0351

Candidate of Technical Sciences, associate professor of the Department of Networks and Communication Systems

Russian Federation, Samara

References

  1. Sungatullina D.I. Fast algorithm for combining edges of images connected by isotropic affine transform. Grafikon 2014, 2014, pp. 92–95. (In Russ.)
  2. Efimov A.I. Development and Research of Algorithms for Combining Images from On-Board Video Sensors with a Virtual Terrain Model: Diss. … Cand. Techn. Sciences. Rjazan’: Izdatel’stvo Rjazanskogo gosudarstvennogo radiotehnicheskogo universiteta, 2016, 172 p. (In Russ.)
  3. Efimov A.I., Novikov A.I. Algorithm for step-by-step refinement of the projective transformation for image alignment. Komp’juternaja optika, 2016, vol. 40, no. 2, pp. 258–265. DOI: https://doi.org/10.18287/2412-6179-2016-40-2-258-265 (In Russ.)
  4. Mjasnikov E.V. Determination of parameters of geometric transformations for combining portrait images. Komp’juternaja optika, 2007, vol. 31, no. 3, pp. 77–82. (In Russ.)
  5. Reddy B., Chatterji B. An FFT-based technique for translation, rotation, and scale-invariant image registration. IEEE Transactions on Image Processing, 1996, vol. 5, no. 27, pp. 1266–1271. DOI: https://doi.org/10.1109/83.506761
  6. Alba A. et al. Phase correlation based image alignment with subpixel accuracy. 11th Mexican International Conference on Artificial Intelligence (MICAI 2012). 2012. Vol. 7629, pp. 171–182. DOI: https://doi.org/10.1007/978-3-642-37807-2_15
  7. Evangelidis G., Psarakis E. Parametric image alignment using enhanced correlation coefficient maximization. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2008, vol. 30, no. 27, pp. 1858–1865. DOI: https://doi.org/10.1109/TPAMI.2008.113
  8. Bogatyreva V.V., Dmitriev A.L. Optical Methods of Information Processing. Saint Petersburg: SPbGU ITMO, 2009, 74 p. (In Russ.)
  9. Akaev A.A., Majorov S.A. Optical Methods of Information Processing: Reprint Reproduction of the 1988 Edition. Saint Petersburg: SPbGU ITMO, 2005, 259 p. (In Russ.)
  10. Adelson E.H. et al. Pyramid methods in image processing. Computer Science, 1988, pp. 33–41.
  11. Bessmel’tsev V.P., Bulushev E.D. Fast image algorithm for quality control of laser micromachining. Komp’juternaja optika, 2014, vol. 38, no. 2, pp. 343–350. (In Russ.)
  12. Lucas B.D., Kanade T. An iterative image registration technique with an application to stereo vision. Proceedings of the 7th International Joint Conference on Artificial Intelligence (IJCAI, Vancouver, Canada, 24–28 August 1981), 1981, pp. 121–130.
  13. Machnev A.M., Zhuk S.Ya. Searchless algorithm for determining the angle of rotation of images. Vіsnik Natsіonal’nogo tehnіchnogo unіversitetu Ukraїni «KPІ», 2008, no. 37, pp. 33–37. (In Russ.)
  14. Lowe D.G. Distinctive image features from scale-invariant keypoints. International Journal Computer Vision, 2004, vol. 60, no. 2, pp. 91−110. DOI: https://doi.org/10.1023/B:VISI.0000029664.99615.94
  15. Schwind P. et al. Applicability of the SIFT operator to geometric SAR image registration. International Journal Remote Sens, 2010, vol. 31, no. 8, pp. 1959−1980. DOI: https://doi.org/10.1080/01431160902927622
  16. Bay H. et al. SURF: Speeded up robust features. Computer Vision and Image Understanding, 2008, vol. 110, no. 3, pp. 346−359. DOI: https://doi.org/10.1016/j.cviu.2007.09.014

Supplementary files

Supplementary Files
Action
1. JATS XML
2. Fig. 1. Initial images: f(x, y) (a), g(x, y) (b)

Download (184KB)
3. Fig. 2. Evaluation of scale and rotation

Download (199KB)
4. Fig. 3. Error in parameter estimation

Download (1MB)

Copyright (c) 2022 Diyazitdinov R.

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

СМИ зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Регистрационный номер и дата принятия решения о регистрации СМИ: серия ФС 77 - 68199 от 27.12.2016.

This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies