Lines Matching refs:row

170     sub         r1, r1, #26                 @ref_main_idx + 2nt - (8 + 1)(two_nt - idx - row ) for 8 & 8 - 1row
191 vmov.i8 d9, #22 @row 0 to 7
193 vsub.s8 d8, d8, d27 @ref_main_idx (sub row)
194 vsub.s8 d8, d26, d8 @ref_main_idx (row 0)
196 vsub.s8 d9, d8, d29 @ref_main_idx + 1 (row 0)
197 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 0)
200 vtbl.8 d13, {d0,d1,d2,d3}, d9 @load from ref_main_idx + 1 (row 0)
201 vsub.s8 d4, d8, d29 @ref_main_idx (row 1)
202 vsub.s8 d5, d9, d29 @ref_main_idx + 1 (row 1)
206 vtbl.8 d16, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 1)
207 vmull.u8 q12, d12, d7 @mul (row 0)
208 vmlal.u8 q12, d13, d6 @mul (row 0)
210 vtbl.8 d17, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 1)
211 vsub.s8 d8, d8, d29 @ref_main_idx (row 2)
212 vsub.s8 d9, d9, d29 @ref_main_idx + 1 (row 2)
214 vrshrn.i16 d24, q12, #5 @round shft (row 0)
216 vtbl.8 d14, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 2)
217 vmull.u8 q11, d16, d7 @mul (row 1)
218 vmlal.u8 q11, d17, d6 @mul (row 1)
220 vtbl.8 d15, {d0,d1,d2,d3}, d9 @load from ref_main_idx + 1 (row 2)
221 vsub.s8 d4, d4, d29 @ref_main_idx (row 3)
222 vsub.s8 d5, d5, d29 @ref_main_idx + 1 (row 3)
224 vst1.8 d24, [r2], r3 @st (row 0)
225 vrshrn.i16 d22, q11, #5 @round shft (row 1)
227 vtbl.8 d10, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 3)
228 vmull.u8 q10, d14, d7 @mul (row 2)
229 vmlal.u8 q10, d15, d6 @mul (row 2)
231 vtbl.8 d11, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 3)
232 vsub.s8 d8, d8, d29 @ref_main_idx (row 4)
233 vsub.s8 d9, d9, d29 @ref_main_idx + 1 (row 4)
235 vst1.8 d22, [r2], r3 @st (row 1)
236 vrshrn.i16 d20, q10, #5 @round shft (row 2)
238 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 4)
239 vmull.u8 q9, d10, d7 @mul (row 3)
240 vmlal.u8 q9, d11, d6 @mul (row 3)
242 vtbl.8 d13, {d0,d1,d2,d3}, d9 @load from ref_main_idx + 1 (row 4)
243 vsub.s8 d4, d4, d29 @ref_main_idx (row 5)
244 vsub.s8 d5, d5, d29 @ref_main_idx + 1 (row 5)
246 vst1.8 d20, [r2], r3 @st (row 2)
247 vrshrn.i16 d18, q9, #5 @round shft (row 3)
249 vtbl.8 d16, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 5)
250 vmull.u8 q12, d12, d7 @mul (row 4)
251 vmlal.u8 q12, d13, d6 @mul (row 4)
253 vtbl.8 d17, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 5)
254 vsub.s8 d8, d8, d29 @ref_main_idx (row 6)
255 vsub.s8 d9, d9, d29 @ref_main_idx + 1 (row 6)
257 vst1.8 d18, [r2], r3 @st (row 3)
260 vrshrn.i16 d24, q12, #5 @round shft (row 4)
262 vtbl.8 d14, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 6)
263 vmull.u8 q11, d16, d7 @mul (row 5)
264 vmlal.u8 q11, d17, d6 @mul (row 5)
266 vtbl.8 d15, {d0,d1,d2,d3}, d9 @load from ref_main_idx + 1 (row 6)
267 vsub.s8 d4, d4, d29 @ref_main_idx (row 7)
268 vsub.s8 d5, d5, d29 @ref_main_idx + 1 (row 7)
270 vst1.8 d24, [r2], r3 @st (row 4)
271 vrshrn.i16 d22, q11, #5 @round shft (row 5)
273 vtbl.8 d10, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 7)
274 vmull.u8 q10, d14, d7 @mul (row 6)
275 vmlal.u8 q10, d15, d6 @mul (row 6)
277 vtbl.8 d11, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 7)
278 vmull.u8 q9, d10, d7 @mul (row 7)
279 vmlal.u8 q9, d11, d6 @mul (row 7)
281 vst1.8 d22, [r2], r3 @st (row 5)
282 vrshrn.i16 d20, q10, #5 @round shft (row 6)
283 vrshrn.i16 d18, q9, #5 @round shft (row 7)
285 vst1.8 d20, [r2], r3 @st (row 6)
289 vst1.8 d18, [r2], r3 @st (row 7)
312 vdup.u16 d27, r5 @row value inc or reset accordingly
321 vsub.s8 d11, d11, d27 @ref_main_idx (sub row)
330 vtbl.8 d10, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 7)
333 vmull.u8 q10, d14, d7 @mul (row 6)
334 vtbl.8 d11, {d0,d1,d2,d3}, d5 @load from ref_main_idx - 1 (row 7)
335 vmlal.u8 q10, d15, d6 @mul (row 6)
342 vrshrn.i16 d22, q11, #5 @round shft (row 5)
347 vst1.8 d24, [r5], r3 @st (row 4)
351 vdup.16 d27, r9 @row value inc or reset accordingly
352 vsub.s8 d4, d8, d29 @ref_main_idx (row 1)
354 vsub.s8 d5, d9, d29 @ref_main_idx - 1 (row 1)
355 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 0)
358 vmull.u8 q9, d10, d7 @mul (row 7)
359 vtbl.8 d13, {d0,d1,d2,d3}, d9 @load from ref_main_idx + 1 (row 0)
360 vmlal.u8 q9, d11, d6 @mul (row 7)
369 vst1.8 d22, [r5], r3 @(from previous loop)st (row 5)
370 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6)
372 vsub.s8 d8, d8, d29 @ref_main_idx (row 2)
373 vtbl.8 d10, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 1)
374 vsub.s8 d9, d9, d29 @ref_main_idx - 1 (row 2)
379 vmull.u8 q12, d12, d7 @mul (row 0)
380 vtbl.8 d17, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 1)
381 vmlal.u8 q12, d13, d6 @mul (row 0)
383 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6)
384 vrshrn.i16 d18, q9, #5 @(from previous loop)round shft (row 7)
386 vsub.s8 d4, d4, d29 @ref_main_idx (row 3)
387 vtbl.8 d14, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 2)
388 vsub.s8 d5, d5, d29 @ref_main_idx - 1 (row 3)
390 vmull.u8 q11, d10, d7 @mul (row 1)
391 vtbl.8 d15, {d0,d1,d2,d3}, d9 @load from ref_main_idx + 1 (row 2)
392 vmlal.u8 q11, d17, d6 @mul (row 1)
394 vrshrn.i16 d24, q12, #5 @round shft (row 0)
395 vst1.8 d18, [r5], r3 @(from previous loop)st (row 7)
397 vsub.s8 d8, d8, d29 @ref_main_idx (row 4)
398 vtbl.8 d10, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 3)
399 vsub.s8 d9, d9, d29 @ref_main_idx - 1 (row 4)
401 vmull.u8 q10, d14, d7 @mul (row 2)
402 vtbl.8 d11, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 3)
403 vmlal.u8 q10, d15, d6 @mul (row 2)
409 vst1.8 d24, [r2], r3 @st (row 0)
410 vrshrn.i16 d22, q11, #5 @round shft (row 1)
412 vsub.s8 d4, d4, d29 @ref_main_idx (row 5)
413 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 4)
414 vsub.s8 d5, d5, d29 @ref_main_idx - 1 (row 5)
416 vmull.u8 q9, d10, d7 @mul (row 3)
417 vtbl.8 d13, {d0,d1,d2,d3}, d9 @load from ref_main_idx + 1 (row 4)
418 vmlal.u8 q9, d11, d6 @mul (row 3)
420 vst1.8 d22, [r2], r3 @st (row 1)
421 vrshrn.i16 d20, q10, #5 @round shft (row 2)
426 vsub.s8 d8, d8, d29 @ref_main_idx (row 6)
427 vtbl.8 d21, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 5)
428 vsub.s8 d9, d9, d29 @ref_main_idx - 1 (row 6)
430 vmull.u8 q12, d12, d7 @mul (row 4)
431 vtbl.8 d17, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 5)
434 vst1.8 d20, [r2], r3 @st (row 2)
435 vmlal.u8 q12, d13, d6 @mul (row 4)
437 vrshrn.i16 d18, q9, #5 @round shft (row 3)
440 vsub.s8 d4, d4, d29 @ref_main_idx (row 7)
441 vtbl.8 d14, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 6)
442 vsub.s8 d5, d5, d29 @ref_main_idx - 1 (row 7)
444 mov r6, #22 @to compensate the 2*row value
448 vmull.u8 q11, d21, d7 @mul (row 5)
449 vtbl.8 d15, {d0,d1,d2,d3}, d9 @load from ref_main_idx + 1 (row 6)
450 vmlal.u8 q11, d17, d6 @mul (row 5)
452 vst1.8 d18, [r2], r3 @st (row 3)
453 vrshrn.i16 d24, q12, #5 @round shft (row 4)
460 vsub.s8 d11, d11, d27 @ref_main_idx (add row)
468 vtbl.8 d10, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 7)
470 vmull.u8 q10, d14, d7 @mul (row 6)
471 vtbl.8 d11, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 7)
472 vmlal.u8 q10, d15, d6 @mul (row 6)
474 vst1.8 d24, [r5], r3 @st (row 4)
475 vrshrn.i16 d24, q11, #5 @round shft (row 5)
477 vmull.u8 q9, d10, d7 @mul (row 7)
478 vmlal.u8 q9, d11, d6 @mul (row 7)
480 vst1.8 d24, [r5], r3 @(from previous loop)st (row 5)
481 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6)
483 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6)
484 vrshrn.i16 d18, q9, #5 @(from previous loop)round shft (row 7)
486 vst1.8 d18, [r5], r3 @st (row 7)