Lines Matching refs:u8

55     vld1.u8     {d3}, [r2@64], r1          ; p3
56 vld1.u8 {d4}, [r3@64], r1 ; p2
57 vld1.u8 {d5}, [r2@64], r1 ; p1
58 vld1.u8 {d6}, [r3@64], r1 ; p0
59 vld1.u8 {d7}, [r2@64], r1 ; q0
60 vld1.u8 {d16}, [r3@64], r1 ; q1
61 vld1.u8 {d17}, [r2@64] ; q2
62 vld1.u8 {d18}, [r3@64] ; q3
69 vst1.u8 {d4}, [r2@64], r1 ; store op1
70 vst1.u8 {d5}, [r3@64], r1 ; store op0
71 vst1.u8 {d6}, [r2@64], r1 ; store oq0
72 vst1.u8 {d7}, [r3@64], r1 ; store oq1
115 vld1.u8 {d3}, [r2], r1 ; load s data
116 vld1.u8 {d4}, [r2], r1
117 vld1.u8 {d5}, [r2], r1
118 vld1.u8 {d6}, [r2], r1
119 vld1.u8 {d7}, [r2], r1
120 vld1.u8 {d16}, [r2], r1
121 vld1.u8 {d17}, [r2], r1
122 vld1.u8 {d18}, [r2]
189 vabd.u8 d19, d3, d4 ; m1 = abs(p3 - p2)
190 vabd.u8 d20, d4, d5 ; m2 = abs(p2 - p1)
191 vabd.u8 d21, d5, d6 ; m3 = abs(p1 - p0)
192 vabd.u8 d22, d16, d7 ; m4 = abs(q1 - q0)
193 vabd.u8 d3, d17, d16 ; m5 = abs(q2 - q1)
194 vabd.u8 d4, d18, d17 ; m6 = abs(q3 - q2)
197 vmax.u8 d19, d19, d20 ; m1 = max(m1, m2)
198 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4)
200 vabd.u8 d17, d6, d7 ; abs(p0 - q0)
202 vmax.u8 d3, d3, d4 ; m3 = max(m5, m6)
204 vmov.u8 d18, #0x80
206 vmax.u8 d23, d19, d20 ; m1 = max(m1, m2)
209 vcgt.u8 d21, d21, d2 ; (abs(p1 - p0) > thresh)*-1
210 vcgt.u8 d22, d22, d2 ; (abs(q1 - q0) > thresh)*-1
211 vmax.u8 d23, d23, d3 ; m1 = max(m1, m3)
213 vabd.u8 d28, d5, d16 ; a = abs(p1 - q1)
214 vqadd.u8 d17, d17, d17 ; b = abs(p0 - q0) * 2
218 vcge.u8 d23, d1, d23 ; abs(m1) > limit
223 vshr.u8 d28, d28, #1 ; a = a / 2
227 vqadd.u8 d17, d17, d28 ; a = b + a
231 vmov.u8 d19, #3
235 vcge.u8 d17, d0, d17 ; a > blimit
247 vmov.u8 d17, #4
308 vld1.u8 {d3}, [r3@64], r1 ; p3
309 vld1.u8 {d4}, [r2@64], r1 ; p2
310 vld1.u8 {d5}, [r3@64], r1 ; p1
311 vld1.u8 {d6}, [r2@64], r1 ; p0
312 vld1.u8 {d7}, [r3@64], r1 ; q0
313 vld1.u8 {d16}, [r2@64], r1 ; q1
314 vld1.u8 {d17}, [r3@64] ; q2
315 vld1.u8 {d18}, [r2@64], r1 ; q3
322 vst1.u8 {d0}, [r2@64], r1 ; store op2
323 vst1.u8 {d1}, [r3@64], r1 ; store op1
324 vst1.u8 {d2}, [r2@64], r1 ; store op0
325 vst1.u8 {d3}, [r3@64], r1 ; store oq0
326 vst1.u8 {d4}, [r2@64], r1 ; store oq1
327 vst1.u8 {d5}, [r3@64], r1 ; store oq2
366 vld1.u8 {d3}, [r2], r1 ; load s data
367 vld1.u8 {d4}, [r2], r1
368 vld1.u8 {d5}, [r2], r1
369 vld1.u8 {d6}, [r2], r1
370 vld1.u8 {d7}, [r2], r1
371 vld1.u8 {d16}, [r2], r1
372 vld1.u8 {d17}, [r2], r1
373 vld1.u8 {d18}, [r2]
453 vabd.u8 d19, d3, d4 ; m1 = abs(p3 - p2)
454 vabd.u8 d20, d4, d5 ; m2 = abs(p2 - p1)
455 vabd.u8 d21, d5, d6 ; m3 = abs(p1 - p0)
456 vabd.u8 d22, d16, d7 ; m4 = abs(q1 - q0)
457 vabd.u8 d23, d17, d16 ; m5 = abs(q2 - q1)
458 vabd.u8 d24, d18, d17 ; m6 = abs(q3 - q2)
461 vmax.u8 d19, d19, d20 ; m1 = max(m1, m2)
462 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4)
464 vabd.u8 d25, d6, d4 ; m7 = abs(p0 - p2)
466 vmax.u8 d23, d23, d24 ; m3 = max(m5, m6)
468 vabd.u8 d26, d7, d17 ; m8 = abs(q0 - q2)
470 vmax.u8 d19, d19, d20
472 vabd.u8 d24, d6, d7 ; m9 = abs(p0 - q0)
473 vabd.u8 d27, d3, d6 ; m10 = abs(p3 - p0)
474 vabd.u8 d28, d18, d7 ; m11 = abs(q3 - q0)
476 vmax.u8 d19, d19, d23
478 vabd.u8 d23, d5, d16 ; a = abs(p1 - q1)
479 vqadd.u8 d24, d24, d24 ; b = abs(p0 - q0) * 2
482 vcge.u8 d19, d1, d19
485 vmax.u8 d25, d25, d26 ; m4 = max(m7, m8)
486 vmax.u8 d26, d27, d28 ; m5 = max(m10, m11)
488 vshr.u8 d23, d23, #1 ; a = a / 2
490 vmax.u8 d25, d25, d26 ; m4 = max(m4, m5)
492 vqadd.u8 d24, d24, d23 ; a = b + a
494 vmax.u8 d20, d20, d25 ; m2 = max(m2, m4)
496 vmov.u8 d23, #1
497 vcge.u8 d24, d0, d24 ; a > blimit
499 vcgt.u8 d21, d21, d2 ; (abs(p1 - p0) > thresh)*-1
501 vcge.u8 d20, d23, d20 ; flat
505 vcgt.u8 d23, d22, d2 ; (abs(q1 - q0) > thresh)*-1
509 vmov.u8 d22, #0x80
535 vmov.u8 d27, #3
547 vmov.u8 d29, #4
583 vmov.u8 d23, #2
584 vaddl.u8 q14, d6, d7 ; r_op2 = p0 + q0
585 vmlal.u8 q14, d3, d27 ; r_op2 += p3 * 3
586 vmlal.u8 q14, d4, d23 ; r_op2 += p2 * 2
590 vaddw.u8 q14, d5 ; r_op2 += p1
596 vsubw.u8 q14, d3 ; r_op1 = r_op2 - p3
597 vsubw.u8 q14, d4 ; r_op1 -= p2
598 vaddw.u8 q14, d5 ; r_op1 += p1
599 vaddw.u8 q14, d16 ; r_op1 += q1
605 vsubw.u8 q14, d3 ; r_op0 = r_op1 - p3
606 vsubw.u8 q14, d5 ; r_op0 -= p1
607 vaddw.u8 q14, d6 ; r_op0 += p0
608 vaddw.u8 q14, d17 ; r_op0 += q2
614 vsubw.u8 q14, d3 ; r_oq0 = r_op0 - p3
615 vsubw.u8 q14, d6 ; r_oq0 -= p0
616 vaddw.u8 q14, d7 ; r_oq0 += q0
620 vaddw.u8 q14, d18 ; oq0 += q3
626 vsubw.u8 q14, d4 ; r_oq1 = r_oq0 - p2
627 vsubw.u8 q14, d7 ; r_oq1 -= q0
628 vaddw.u8 q14, d16 ; r_oq1 += q1
632 vaddw.u8 q14, d18 ; r_oq1 += q3
638 vsubw.u8 q14, d5 ; r_oq2 = r_oq1 - p1
639 vsubw.u8 q14, d16 ; r_oq2 -= q1
640 vaddw.u8 q14, d17 ; r_oq2 += q2
641 vaddw.u8 q14, d18 ; r_oq2 += q3
654 vmov.u8 d27, #3
655 vmov.u8 d21, #2
656 vaddl.u8 q14, d6, d7 ; op2 = p0 + q0
657 vmlal.u8 q14, d3, d27 ; op2 += p3 * 3
658 vmlal.u8 q14, d4, d21 ; op2 += p2 * 2
659 vaddw.u8 q14, d5 ; op2 += p1
662 vsubw.u8 q14, d3 ; op1 = op2 - p3
663 vsubw.u8 q14, d4 ; op1 -= p2
664 vaddw.u8 q14, d5 ; op1 += p1
665 vaddw.u8 q14, d16 ; op1 += q1
668 vsubw.u8 q14, d3 ; op0 = op1 - p3
669 vsubw.u8 q14, d5 ; op0 -= p1
670 vaddw.u8 q14, d6 ; op0 += p0
671 vaddw.u8 q14, d17 ; op0 += q2
674 vsubw.u8 q14, d3 ; oq0 = op0 - p3
675 vsubw.u8 q14, d6 ; oq0 -= p0
676 vaddw.u8 q14, d7 ; oq0 += q0
677 vaddw.u8 q14, d18 ; oq0 += q3
680 vsubw.u8 q14, d4 ; oq1 = oq0 - p2
681 vsubw.u8 q14, d7 ; oq1 -= q0
682 vaddw.u8 q14, d16 ; oq1 += q1
683 vaddw.u8 q14, d18 ; oq1 += q3
686 vsubw.u8 q14, d5 ; oq2 = oq1 - p1
687 vsubw.u8 q14, d16 ; oq2 -= q1
688 vaddw.u8 q14, d17 ; oq2 += q2
689 vaddw.u8 q14, d18 ; oq2 += q3