Lines Matching refs:u8

40     vld1.u8     {d0}, [r8@64], r1          ; p7
41 vld1.u8 {d1}, [r8@64], r1 ; p6
42 vld1.u8 {d2}, [r8@64], r1 ; p5
43 vld1.u8 {d3}, [r8@64], r1 ; p4
44 vld1.u8 {d4}, [r8@64], r1 ; p3
45 vld1.u8 {d5}, [r8@64], r1 ; p2
46 vld1.u8 {d6}, [r8@64], r1 ; p1
47 vld1.u8 {d7}, [r8@64], r1 ; p0
48 vld1.u8 {d8}, [r8@64], r1 ; q0
49 vld1.u8 {d9}, [r8@64], r1 ; q1
50 vld1.u8 {d10}, [r8@64], r1 ; q2
51 vld1.u8 {d11}, [r8@64], r1 ; q3
52 vld1.u8 {d12}, [r8@64], r1 ; q4
53 vld1.u8 {d13}, [r8@64], r1 ; q5
54 vld1.u8 {d14}, [r8@64], r1 ; q6
55 vld1.u8 {d15}, [r8@64], r1 ; q7
66 vst1.u8 {d25}, [r8@64], r1 ; store op1
67 vst1.u8 {d24}, [r8@64], r1 ; store op0
68 vst1.u8 {d23}, [r8@64], r1 ; store oq0
69 vst1.u8 {d26}, [r8@64], r1 ; store oq1
82 vst1.u8 {d18}, [r8@64], r1 ; store op2
83 vst1.u8 {d19}, [r8@64], r1 ; store op1
84 vst1.u8 {d20}, [r8@64], r1 ; store op0
85 vst1.u8 {d21}, [r8@64], r1 ; store oq0
86 vst1.u8 {d22}, [r8@64], r1 ; store oq1
87 vst1.u8 {d23}, [r8@64], r1 ; store oq2
95 vst1.u8 {d16}, [r8@64], r1 ; store op6
96 vst1.u8 {d24}, [r8@64], r1 ; store op5
97 vst1.u8 {d25}, [r8@64], r1 ; store op4
98 vst1.u8 {d26}, [r8@64], r1 ; store op3
99 vst1.u8 {d27}, [r8@64], r1 ; store op2
100 vst1.u8 {d18}, [r8@64], r1 ; store op1
101 vst1.u8 {d19}, [r8@64], r1 ; store op0
102 vst1.u8 {d20}, [r8@64], r1 ; store oq0
103 vst1.u8 {d21}, [r8@64], r1 ; store oq1
104 vst1.u8 {d22}, [r8@64], r1 ; store oq2
105 vst1.u8 {d23}, [r8@64], r1 ; store oq3
106 vst1.u8 {d1}, [r8@64], r1 ; store oq4
107 vst1.u8 {d2}, [r8@64], r1 ; store oq5
108 vst1.u8 {d3}, [r8@64], r1 ; store oq6
312 vabd.u8 d19, d4, d5 ; abs(p3 - p2)
313 vabd.u8 d20, d5, d6 ; abs(p2 - p1)
314 vabd.u8 d21, d6, d7 ; abs(p1 - p0)
315 vabd.u8 d22, d9, d8 ; abs(q1 - q0)
316 vabd.u8 d23, d10, d9 ; abs(q2 - q1)
317 vabd.u8 d24, d11, d10 ; abs(q3 - q2)
320 vmax.u8 d19, d19, d20 ; max(abs(p3 - p2), abs(p2 - p1))
321 vmax.u8 d20, d21, d22 ; max(abs(p1 - p0), abs(q1 - q0))
322 vmax.u8 d23, d23, d24 ; max(abs(q2 - q1), abs(q3 - q2))
323 vmax.u8 d19, d19, d20
325 vabd.u8 d24, d7, d8 ; abs(p0 - q0)
327 vmax.u8 d19, d19, d23
329 vabd.u8 d23, d6, d9 ; a = abs(p1 - q1)
330 vqadd.u8 d24, d24, d24 ; b = abs(p0 - q0) * 2
333 vcge.u8 d19, d17, d19
336 vabd.u8 d25, d7, d5 ; abs(p0 - p2)
337 vabd.u8 d26, d8, d10 ; abs(q0 - q2)
338 vabd.u8 d27, d4, d7 ; abs(p3 - p0)
339 vabd.u8 d28, d11, d8 ; abs(q3 - q0)
342 vmax.u8 d25, d25, d26 ; max(abs(p0 - p2), abs(q0 - q2))
343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0))
344 vmax.u8 d25, d25, d26
345 vmax.u8 d20, d20, d25
347 vshr.u8 d23, d23, #1 ; a = a / 2
348 vqadd.u8 d24, d24, d23 ; a = b + a
350 vmov.u8 d30, #1
351 vcge.u8 d24, d16, d24 ; (a > blimit * 2 + limit) * -1
353 vcge.u8 d20, d30, d20 ; flat
358 vcgt.u8 d21, d21, d18 ; (abs(p1 - p0) > thresh)*-1
359 vcgt.u8 d22, d22, d18 ; (abs(q1 - q0) > thresh)*-1
366 vabd.u8 d22, d3, d7 ; abs(p4 - p0)
367 vabd.u8 d23, d12, d8 ; abs(q4 - q0)
368 vabd.u8 d24, d7, d2 ; abs(p0 - p5)
369 vabd.u8 d25, d8, d13 ; abs(q0 - q5)
370 vabd.u8 d26, d1, d7 ; abs(p6 - p0)
371 vabd.u8 d27, d14, d8 ; abs(q6 - q0)
372 vabd.u8 d28, d0, d7 ; abs(p7 - p0)
373 vabd.u8 d29, d15, d8 ; abs(q7 - q0)
376 vmax.u8 d22, d22, d23 ; max(abs(p4 - p0), abs(q4 - q0))
377 vmax.u8 d23, d24, d25 ; max(abs(p0 - p5), abs(q0 - q5))
378 vmax.u8 d24, d26, d27 ; max(abs(p6 - p0), abs(q6 - q0))
379 vmax.u8 d25, d28, d29 ; max(abs(p7 - p0), abs(q7 - q0))
381 vmax.u8 d26, d22, d23
382 vmax.u8 d27, d24, d25
383 vmax.u8 d23, d26, d27
385 vcge.u8 d18, d30, d23 ; flat2
387 vmov.u8 d22, #0x80
404 vmov.u8 d27, #3
411 vmov.u8 d29, #4
448 vmov.u8 d29, #2
449 vaddl.u8 q15, d7, d8 ; op2 = p0 + q0
450 vmlal.u8 q15, d4, d27 ; op2 = p0 + q0 + p3 * 3
451 vmlal.u8 q15, d5, d29 ; op2 = p0 + q0 + p3 * 3 + p2 * 2
452 vaddl.u8 q10, d4, d5
453 vaddw.u8 q15, d6 ; op2=p1 + p0 + q0 + p3 * 3 + p2 *2
454 vaddl.u8 q14, d6, d9
458 vaddl.u8 q10, d4, d6
460 vaddl.u8 q14, d7, d10
465 vaddl.u8 q14, d8, d11
468 vsubw.u8 q15, d4 ; oq0 = op0 - p3
469 vsubw.u8 q15, d7 ; oq0 -= p0
471 vaddl.u8 q14, d9, d11
474 vsubw.u8 q15, d5 ; oq1 = oq0 - p2
475 vsubw.u8 q15, d8 ; oq1 -= q0
477 vaddl.u8 q14, d10, d11
480 vsubw.u8 q15, d6 ; oq2 = oq0 - p1
481 vsubw.u8 q15, d9 ; oq2 -= q1
499 vmov.u8 d16, #7
500 vaddl.u8 q15, d7, d8 ; op6 = p0 + q0
501 vaddl.u8 q12, d2, d3
502 vaddl.u8 q13, d4, d5
503 vaddl.u8 q14, d1, d6
504 vmlal.u8 q15, d0, d16 ; op6 += p7 * 3
507 vaddl.u8 q14, d2, d9
509 vaddl.u8 q12, d0, d1
510 vaddw.u8 q15, d1
511 vaddl.u8 q13, d0, d2
516 vaddl.u8 q14, d3, d10
520 vaddl.u8 q13, d0, d3
522 vaddl.u8 q14, d4, d11
526 vaddl.u8 q14, d0, d4
531 vaddw.u8 q15, q14, d5 ; op2 += p2
532 vaddl.u8 q14, d0, d5
533 vaddw.u8 q15, d12 ; op2 += q4
538 vaddl.u8 q14, d0, d6
539 vaddw.u8 q15, d6 ; op1 += p1
540 vaddw.u8 q15, d13 ; op1 += q5
545 vaddl.u8 q14, d0, d7
546 vaddw.u8 q15, d7 ; op0 += p0
547 vaddw.u8 q15, d14 ; op0 += q6
552 vaddl.u8 q14, d1, d8
553 vaddw.u8 q15, d8 ; oq0 += q0
554 vaddw.u8 q15, d15 ; oq0 += q7
559 vaddl.u8 q14, d2, d9
560 vaddw.u8 q15, d9 ; oq1 += q1
561 vaddl.u8 q4, d10, d15
562 vaddw.u8 q15, d15 ; oq1 += q7
567 vaddl.u8 q14, d3, d10
569 vaddl.u8 q4, d11, d15
574 vaddl.u8 q14, d4, d11
576 vaddl.u8 q4, d12, d15
581 vaddl.u8 q14, d5, d12
583 vaddl.u8 q4, d13, d15
588 vaddl.u8 q14, d6, d13
590 vaddl.u8 q4, d14, d15