Lines Matching refs:II

430     ADD         r11,r0,r1,LSL #1            @II *pu1_src + src_strd
432 SUB r5,r12,r7 @II ht_tmp - row
436 ADD r8,r14,r5,LSL #1 @II pu1_src_left_cpy[(ht_tmp - row) * 2]
439 VLD1.8 D16,[r11]! @II pu1_next_row = vld1q_u8(pu1_src_cpy + src_strd)
440 VLD1.8 D17,[r11] @II pu1_next_row = vld1q_u8(pu1_src_cpy + src_strd)
442 LDRB r10,[r4,#14] @II pu1_src_cpy[14]
444 LDRB r8,[r4,#15] @II pu1_src_cpy[15]
445 VMOV.16 D29[3],r9 @II vsetq_lane_u8
448 LDRB r5,[r0,#17] @II load the value pu1_src_cpy[17 - src_strd]
452 LDRB r11,[r0,#16] @II load the value pu1_src_cpy[16 - src_strd]
454 SUB r7,r7,#1 @II Decrement the ht_tmp loop count by 1
456 SUB r10,r10,r11 @II pu1_src_cpy[14] - pu1_src_cpy[16 - src_strd]
458 CMP r10,#0 @II
459 VEXT.8 Q14,Q14,Q8,#14 @II pu1_next_row_tmp = vextq_u8(pu1_next_row_tmp, pu1_next_row, 14)
460 SUB r8,r8,r5 @II pu1_src_cpy[15] - pu1_src_cpy[17 - src_strd]
462 MVNLT r10,#0 @II
464 MOVGT r10,#1 @II SIGN(pu1_src_cpy[14] - pu1_src_cpy[16 - src_strd])
466 CMP r8,#0 @II
467 VMOV.8 D15[6],r10 @II sign_up = sign_up = vsetq_lane_s8(SIGN(pu1_src_cpy[14] -pu1_src_cpy[16 - src_strd]), sign_up, 0)
468 MVNLT r8,#0 @II
470 MOVGT r8,#1 @II SIGN(pu1_src_cpy[15] - pu1_src_cpy[17 - src_strd]
472 VMOV.8 D15[7],r8 @II sign_up = vsetq_lane_s8(SIGN(pu1_src_cpy[15] -pu1_src_cpy[17 - src_strd]), sign_up, 1)
476 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
486 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
494 VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
502 VADD.I8 Q13,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up)
506 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down)
509 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down)
510 VTBL.8 D26,{D21},D26 @II vtbl1_s8(edge_idx_tbl, vget_low_s8(edge_idx))
514 VEXT.8 Q7,Q7,Q7,#2 @II sign_up = vextq_s8(sign_up, sign_up, 2)
515 VTBL.8 D27,{D21},D27 @II vtbl1_s8(edge_idx_tbl, vget_high_s8(edge_idx))
519 VAND Q13,Q13,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
522 VUZP.8 D26,D27 @II
525 VTBL.8 D24,{D6},D26 @II
529 VTBL.8 D25,{D7},D27 @II
533 VZIP.8 D24,D25 @II
535 VMOVL.U8 Q14,D12 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(vget_low_u8(pu1_cur_row)))
539 VADDW.S8 Q14,Q14,D24 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0], offset)
543 VMOVL.U8 Q13,D13 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(vget_high_u8(pu1_cur_row)))
549 VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0], const_min_clip)
551 VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[0]), const_max_clip))
553 VADDW.S8 Q13,Q13,D25 @II pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1], offset)
555 VMAX.S16 Q13,Q13,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1], const_min_clip)
560 VMOVN.I16 D28,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[0])
564 VMIN.U16 Q13,Q13,Q2 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[1]), const_max_clip))
570 VMOVN.I16 D29,Q13 @II vmovn_s16(pi2_tmp_cur_row.val[1])
577 VST1.8 {Q14},[r0],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row)