view usr/src/common/crypto/arcfour/sun4u/arcfour_crypt_asm.s @ 3708:75f7822ae9dc

PSARC/2007/093 Crypto Context sharing between providers 6494834 support check for threshold when using hardware providers even for multi-part requests
author krishna
date Fri, 23 Feb 2007 11:55:36 -0800
parents 68f95e015346
children 22d541737af0
line wrap: on
line source

/*
 * CDDL HEADER START
 *
 * The contents of this file are subject to the terms of the
 * Common Development and Distribution License (the "License").
 * You may not use this file except in compliance with the License.
 *
 * You can obtain a copy of the license at usr/src/OPENSOLARIS.LICENSE
 * or http://www.opensolaris.org/os/licensing.
 * See the License for the specific language governing permissions
 * and limitations under the License.
 *
 * When distributing Covered Code, include this CDDL HEADER in each
 * file and include the License file at usr/src/OPENSOLARIS.LICENSE.
 * If applicable, add the following below this CDDL HEADER, with the
 * fields enclosed by brackets "[]" replaced with your own identifying
 * information: Portions Copyright [yyyy] [name of copyright owner]
 *
 * CDDL HEADER END
 */
/*
 * Copyright 2007 Sun Microsystems, Inc.  All rights reserved.
 * Use is subject to license terms.
 */

#pragma ident	"%Z%%M%	%I%	%E% SMI"

#if defined(lint) || defined(__lint)
	/* LINTED */
	/* Nothing to be linted in this file, its pure assembly source */
#else	/* lint || __lint */ 

	.register	%g2,#scratch
	.register	%g3,#scratch

	.section	".text",#alloc,#execinstr
	.file	"arcfour_crypt_asm.s"

	.section	".text",#alloc
	.align	32

	.section	".text",#alloc,#execinstr
	.align	32
	.skip	32

/*
 * SUBROUTINE arcfour_crypt_aligned
 *
 * void arcfour_crypt_aligned(ARCFour_key *key, int len, 
 *			unsigned char *in, unsigned char *out);
 *
 * in and out should be aligned on an 8-byte boundary, but len can be anything
 */
	.global arcfour_crypt_aligned
	
	
arcfour_crypt_aligned:

/* EXPORT DELETE START */
	save	%sp,-144,%sp

	srl	%i1, 3, %l7
	ldub	[%i0+256], %g1

	orcc	%l7, %g0, %g0
	ldub	[%i0+257], %g2

	add	%g1, 1, %o1
	bz	%icc, .Loop2
	add	%i0, 0, %i5

	add	%o1, 1, %g1
	and	%o1, 255, %o1

	and	%g1, 255, %g1
	ldub	[%i5 + %o1], %o3

	ldub	[%i5 + %g1], %g3

	add	%g2, %o3, %o2

	add	%o2, %g3, %g2
	and	%o2, 255, %o2

	and	%g2, 255, %g2
	ldub	[%i5 + %o2], %o4

	stb	%o3, [%i5+%o2]
	subcc	%o2, %g1, %g0

	stb	%o4, [%i5 + %o1]
	bz	%icc, .L1A
	add	%o3,%o4,%o5
.L1B:
	and	%o5, 255, %o5
	ldub	[%i5 + %g2], %g4

	ldub	[%i5 + %o5], %o5
	add	%g1, 1, %o1

	and	%o1, 255, %o1
	stb	%g3, [%i5 + %g2]
	add	%g3, %g4, %g5

	and	%g5, 255, %g5
	stb	%g4, [%i5 + %g1]
	add	%o1, 1, %g1


	sllx	%o5, 56, %o0
	ldub	[%i5 + %o1], %o3
	and	%g1, 255, %g1

	ldub	[%i5 + %g1], %g3

	add	%g2, %o3, %o2
	ldub	[%i5 + %g5], %g5

	add	%o2, %g3, %g2
	and	%o2, 255, %o2

	sllx	%g5, 48, %g5
	ldub	[%i5 + %o2], %o4
	and	%g2, 255, %g2

	or	%o0, %g5, %o0
	stb	%o3, [%i5+%o2]
	subcc	%o2, %g1, %g0

	stb	%o4, [%i5 + %o1]
	bz	%icc, .L2A
	add	%o3,%o4,%o5
.L2B:
	and	%o5, 255, %o5
	ldub	[%i5 + %g2], %g4

	ldub	[%i5 + %o5], %o5
	add	%g1, 1, %o1

	and	%o1, 255, %o1
	stb	%g3, [%i5 + %g2]
	add	%g3, %g4, %g5

	and	%g5, 255, %g5
	stb	%g4, [%i5 + %g1]
	add	%o1, 1, %g1


	sllx	%o5, 40, %o5
	ldub	[%i5 + %o1], %o3
	and	%g1, 255, %g1

	ldub	[%i5 + %g1], %g3
	or	%o0, %o5, %o0

	add	%g2, %o3, %o2
	ldub	[%i5 + %g5], %g5

	add	%o2, %g3, %g2
	and	%o2, 255, %o2

	sllx	%g5, 32, %g5
	ldub	[%i5 + %o2], %o4
	and	%g2, 255, %g2

	or	%o0, %g5, %o0
	stb	%o3, [%i5+%o2]
	subcc	%o2, %g1, %g0

	stb	%o4, [%i5 + %o1]
	bz	%icc, .L3A
	add	%o3,%o4,%o5
.L3B:
	and	%o5, 255, %o5
	ldub	[%i5 + %g2], %g4

	ldub	[%i5 + %o5], %o5
	add	%g1, 1, %o1

	and	%o1, 255, %o1
	stb	%g3, [%i5 + %g2]
	add	%g3, %g4, %g5

	and	%g5, 255, %g5
	stb	%g4, [%i5 + %g1]
	add	%o1, 1, %g1


	sll	%o5, 24, %o5
	ldub	[%i5 + %o1], %o3
	and	%g1, 255, %g1

	sub	%i1, 8, %i1
	ldub	[%i5 + %g1], %g3
	or	%o0, %o5, %o0

	srl	%i1, 3, %l7
	ldub	[%i5 + %g5], %g5
	add	%g2, %o3, %o2

	add	%o2, %g3, %g2
	and	%o2, 255, %o2

	sll	%g5, 16, %g5
	ldub	[%i5 + %o2], %o4
	and	%g2, 255, %g2

	or	%o0, %g5, %o0
	stb	%o3, [%i5+%o2]
	subcc	%o2, %g1, %g0

	stb	%o4, [%i5 + %o1]
	bz	%icc, .L4A
	add	%o3,%o4,%o5
.L4B:
	and	%o5, 255, %o5
	ldub	[%i5 + %g2], %g4
	add	%g1, 1, %o1

	orcc	%l7, %g0, %g0
	ldub	[%i5 + %o5], %o5
	and	%o1, 255, %o1

	add	%g3, %g4, %g5
	stb	%g4, [%i5 + %g1]
	add	%o1, 1, %g1

	stb	%g3, [%i5 + %g2]
	bz	%icc, .EndLoop1
	and	%g5, 255, %g5


.Loop1:	
	sll	%o5, 8, %o5
	ldub	[%i5 + %o1], %o3
	and	%g1, 255, %g1

	ldub	[%i5 + %g1], %g3
	or	%o0, %o5, %o0

	ldub	[%i5 + %g5], %g5
	add	%g2, %o3, %o2

	add	%o2, %g3, %g2
	ldx	[%i2], %o7
	and	%o2, 255, %o2

	and	%g2, 255, %g2
	ldub	[%i5 + %o2], %o4

	or	%o0, %g5, %o0
	stb	%o3, [%i5+%o2]
	subcc	%o2, %g1, %g0

	stb	%o4, [%i5 + %o1]
	bz	%icc, .L5A
	add	%o3,%o4,%o5
.L5B:
	and	%o5, 255, %o5
	ldub	[%i5 + %g2], %g4

	ldub	[%i5 + %o5], %o5
	add	%g1, 1, %o1

	and	%o1, 255, %o1
	stb	%g3, [%i5 + %g2]
	add	%g3, %g4, %g5

	and	%g5, 255, %g5
	stb	%g4, [%i5 + %g1]
	add	%o1, 1, %g1


	xor	%o0, %o7, %o7
	ldub	[%i5 + %o1], %o3
	and	%g1, 255, %g1

	sllx	%o5, 56, %o0
	ldub	[%i5 + %g1], %g3

	add	%g2, %o3, %o2
	ldub	[%i5 + %g5], %g5

	add	%o2, %g3, %g2
	stx	%o7, [%i3]
	and	%o2, 255, %o2

	sllx	%g5, 48, %g5
	ldub	[%i5 + %o2], %o4
	and	%g2, 255, %g2

	or	%o0, %g5, %o0
	stb	%o3, [%i5+%o2]
	subcc	%o2, %g1, %g0

	stb	%o4, [%i5 + %o1]
	bz	%icc, .L6A
	add	%o3,%o4,%o5
.L6B:
	and	%o5, 255, %o5
	ldub	[%i5 + %g2], %g4
	add	%i3, 8, %i3

	add	%i2, 8, %i2
	ldub	[%i5 + %o5], %o5
	add	%g1, 1, %o1

	and	%o1, 255, %o1
	stb	%g3, [%i5 + %g2]
	add	%g3, %g4, %g5

	and	%g5, 255, %g5
	stb	%g4, [%i5 + %g1]
	add	%o1, 1, %g1


	sllx	%o5, 40, %o5
	ldub	[%i5 + %o1], %o3
	and	%g1, 255, %g1

	ldub	[%i5 + %g1], %g3
	or	%o0, %o5, %o0

	add	%g2, %o3, %o2
	ldub	[%i5 + %g5], %g5

	add	%o2, %g3, %g2
	and	%o2, 255, %o2

	sllx	%g5, 32, %g5
	ldub	[%i5 + %o2], %o4
	and	%g2, 255, %g2

	or	%o0, %g5, %o0
	stb	%o3, [%i5 + %o2]
	subcc	%o2, %g1, %g0

	stb	%o4, [%i5 + %o1]
	bz	%icc, .L7A
	add	%o3,%o4,%o5
.L7B:
	and	%o5, 255, %o5
	ldub	[%i5 + %g2], %g4

	ldub	[%i5 + %o5], %o5
	add	%g1, 1, %o1

	and	%o1, 255, %o1
	stb	%g3, [%i5 + %g2]
	add	%g3, %g4, %g5

	and	%g5, 255, %g5
	stb	%g4, [%i5 + %g1]
	add	%o1, 1, %g1


	sll	%o5, 24, %o5
	ldub	[%i5 + %o1], %o3
	and	%g1, 255, %g1

	sub	%i1, 8, %i1
	ldub	[%i5 + %g1], %g3
	or	%o0, %o5, %o0

	srl	%i1, 3, %l7
	ldub	[%i5 + %g5], %g5
	add	%g2, %o3, %o2

	add	%o2, %g3, %g2
	and	%o2, 255, %o2

	sll	%g5, 16, %g5
	ldub	[%i5 + %o2], %o4
	and	%g2, 255, %g2

	or	%o0, %g5, %o0
	stb	%o3, [%i5 + %o2]
	subcc	%o2, %g1, %g0

	stb	%o4, [%i5 + %o1]
	bz	%icc, .L8A
	add	%o3,%o4,%o5
.L8B:
	and	%o5, 255, %o5
	ldub	[%i5 + %g2], %g4
	add	%g1, 1, %o1

	orcc	%l7, %g0, %g0
	ldub	[%i5 + %o5], %o5
	and	%o1, 255, %o1

	add	%g3, %g4, %g5
	stb	%g4, [%i5 + %g1]
	add	%o1, 1, %g1

	stb	%g3, [%i5 + %g2]
	bnz	%icc, .Loop1
	and	%g5, 255, %g5


.EndLoop1:
	sll	%o5, 8, %o5
	ldub	[%i5 + %g5], %g5
	orcc	%i1, %g0, %g0

	or	%o0, %o5, %o0
	ldx	[%i2], %o7
	sub	%g1, 2, %g1

	and	%g1, 255, %g1
	stb	%g1, [%i0 + 256]
	or	%o0, %g5, %o0

	xor	%o0, %o7, %o7
	stx	%o7, [%i3]
	add	%i2, 8, %i2

	add	%i3, 8, %i3
	bnz	%icc, .Loop2_1
	stb	%g2, [%i0 + 257]
	
	ret	
	restore	%g0,%g0,%g0


.Loop2:
	orcc	%i1, %g0, %g0
	bnz	.Loop2_1
	nop
	ret
	restore	%g0,%g0,%g0

.Loop2_1:
	and	%o1, 255, %g1
	ldub	[%i5 + %g1], %g3

	add	%g2, %g3, %g2

	and	%g2, 255, %g2

	ldub	[%i5 + %g2], %g4

	stb	%g3, [%i5 + %g2]

	add	%g3, %g4, %g5
	stb	%g4, [%i5 + %g1]

	and	%g5, 255, %g5
	ldub	[%i2], %o0

	add	%g1, 1, %o1
	ldub	[%i5 + %g5], %g5
	subcc	%i1, 1, %i1

	add	%i2, 1, %i2
	add	%i3, 1, %i3

	xor	%o0, %g5, %o0
	bnz	%icc, .Loop2_1
	stb	%o0, [%i3 - 1]

	stb	%g1, [%i0 + 256]

	stb	%g2, [%i0 + 257]
	
	ret
	restore	%g0,%g0,%g0

.L1A:
	add	%o2, %o3, %g2
	or	%o3, %g0, %g3
	ba	.L1B
	and	%g2, 255, %g2
	
.L2A:
	add	%o2, %o3, %g2
	or	%o3, %g0, %g3
	ba	.L2B
	and	%g2, 255, %g2
	
.L3A:
	add	%o2, %o3, %g2
	or	%o3, %g0, %g3
	ba	.L3B
	and	%g2, 255, %g2
	
.L4A:
	add	%o2, %o3, %g2
	or	%o3, %g0, %g3
	ba	.L4B
	and	%g2, 255, %g2
	
.L5A:
	add	%o2, %o3, %g2
	or	%o3, %g0, %g3
	ba	.L5B
	and	%g2, 255, %g2
	
.L6A:
	add	%o2, %o3, %g2
	or	%o3, %g0, %g3
	ba	.L6B
	and	%g2, 255, %g2
	
.L7A:
	add	%o2, %o3, %g2
	or	%o3, %g0, %g3
	ba	.L7B
	and	%g2, 255, %g2
	
.L8A:
	add	%o2, %o3, %g2
	or	%o3, %g0, %g3
	ba	.L8B
	and	%g2, 255, %g2
	
/* EXPORT DELETE END */
	.type	arcfour_crypt_aligned,2
	.size	arcfour_crypt_aligned,(. - arcfour_crypt_aligned)

#endif	/* lint || __lint */