aboutsummaryrefslogtreecommitdiff
path: root/test/import_data.py
blob: 6d4bd9eadf9225656490706212547509a85c38b8 (plain)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
##################################################################
##################################################################
##################################################################
def read_digits(fname='digit.txt'):
	'''
		read_digits(fname='digit.txt')

		read a data file that contains the features and class labels. 
		each row of the file is a feature vector with the class 
		label appended. 
	'''
	import csv
	import numpy as np

	fw = csv.reader(open(fname,'rb'), delimiter='\t')
	data = []
	for line in fw: 
		data.append( [float(x) for x in line] )
	data = np.array(data)
	labels = data[:,len(data.transpose())-1]
	data = data[:,:len(data.transpose())-1]
	return data, labels
##################################################################
##################################################################
##################################################################



##################################################################
##################################################################
##################################################################
def uniform_data(n_observations = 1000, n_features = 50, n_relevant = 5):
	import numpy as np
	xmax = 10
	xmin = 0
	data = np.random.randint(xmax + 1, size = (n_features, n_observations))
	labels = np.zeros(n_observations)
	delta = n_relevant * (xmax - xmin) / 2.0

	for m in range(n_observations):
		zz = 0.0
		for k in range(n_relevant):
			zz += data[k, m]
		if zz > delta:
			labels[m] = 1
		else:
			labels[m] = 2
	data = data.transpose()
	
	return data, labels

##################################################################
##################################################################
##################################################################