On 4/25/07, <b class="gmail_sendername">Michael H. Semcheski</b> &lt;<a href="mailto:mhsemcheski@gmail.com">mhsemcheski@gmail.com</a>&gt; wrote:<div><span class="gmail_quote"></span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
I didn&#39;t know LTSP could run some apps on the server and some on the client.&nbsp; That&#39;s a pretty good feature.<br><br>There&#39;s going to be a lot of matlab, and a significant (though not mountainous) amount of data being collected.&nbsp; I feel kind of like, if we&#39;re going to have thick clients, than they might as well be proper thick clients.&nbsp; I&#39;m leaning toward using autofs and nfs.&nbsp; In for a penny, in for a pound.
<br><br>The database with replication services is a cool idea too.&nbsp; Its pretty easy to convert any thing into a stream and store it in a blob field.&nbsp; One thing, though, is in my experience, some databases have trouble replicating blobs.&nbsp; 
<br><br>Lots of great ideas in this thread.<br><br>Mike<div><span class="e" id="q_1122ae2b8c978434_1"><br><br><div><span class="gmail_quote">On 4/25/07, <b class="gmail_sendername">n schembr</b> &lt;<a href="mailto:nschembr@yahoo.com" target="_blank" onclick="return top.js.OpenExtLink(window,event,this)">
nschembr@yahoo.com</a>&gt; wrote:
</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">I&#39;ve used ltsp in a past life. Ltsp&nbsp;&nbsp;works well.<br><br>ltsp has the option to run applications local. You can pick which applications are run on the server vs the client.
<br><br>rsync can be used to replicate your data.<br><br>If you have a lot of data, I would consider a database with replication services.&nbsp;&nbsp;Make each client part of the database cluster.<br><br><br>Nicholas A. Schembri<br>

State College, PA, USA<br></blockquote></div></span></div></blockquote></div><br>If matlab is one of your key programs one thing to look at is their
cluster solution.&nbsp; That way you could have all the machines in the
group available for running matlab code maximizing the use of the cpu
cycles without needing one &#39;big box&#39; to do all the processing.&nbsp; Also I know you use ubuntu at home but check with your Matlab rep and see what they are willing to support.&nbsp; You want to use a release that the commercial vendors will support or that very expensive piece of software can quickly become a very expensive coaster.&nbsp; I have had good experience working with MatLab under CentOS 
4.4. (individual not the clustered version)<br>
<br>
Also something that may be overlooked would be good documentation of the whole building process.&nbsp; When you decide on something write it down.&nbsp; If you decide to go with NFS write it down and write down why it was a good choice and if you looked at other options write down why you didn&#39;t go with them.&nbsp;&nbsp; Decide where things are going to be installed and then when you install them where they really are.&nbsp; Make a change log that way they day to day admin has something to see what is going on and if they keep it updated you will have something to refer back to when trying to fix it.&nbsp; A method that has worked well for me recently is using a simple wiki.&nbsp; It doesn&#39;t take much in the way of resources and it is pretty easy to access when you are making the changes.&nbsp; A log book can work just as well though as long as the information is kept up to day and available for the people maintaining the system.
<br><br>The last thing I can say is while saving money is a good thing and we all want to do it be careful skimping on the long term technology.&nbsp; Things like the network switches should be there longer than 2 or 3 life cycles of computers.&nbsp; Right now the cost for some decent unmanaged gigabit switches is hardly more than the cost of a 100mb switch.&nbsp; Yes you may save 25% by purchasing the 100mb switch but every time that a file transfer takes 2 or 3 times as long and the users are sitting there waiting or you are running code that ends up i/o starved because of a slow network connection that $100 will seem like a drop in the bucket.&nbsp; Similarly with the file server if you decide it is needed (It is almost always a good idea) try not to go cheap and just use a desktop with cheap hardware.&nbsp; Buy a real server with some redundancy for power and drive storage and don&#39;t discount a UPS.&nbsp; Also have a backup strategy.&nbsp; If there is the possibility to put a machine in another building/location but on the same network you can&#39;t beat setting up an rsync script to mirror the data on the server with a second machine.&nbsp; You can always sync it the first time with it in the same room and on the same switch then move it out of the building and do daily syncs or how ever often you feel is safe.&nbsp; For that near-line backup it can be good to buy some of the consumer drives in very large capacity 750 gb or 1tb because they will not be stressed all the time only once a day.&nbsp; This isn&#39;t a full solution a portable drive or tape should be used to take real weekly backups for off site archival.&nbsp; DR and backup can be expensive but it is even more expensive to lose 3 years of scientist&#39;s work and they have to start over.&nbsp; ~6 scientists x 3 years x ~75k a year = $1.35m or $5k for an extra machine some large drives and a few external media to rotate.&nbsp; Even if you don&#39;t use Iron Mountain or another off site company find a way to get the removable media really off site.
<br><br>Get spares of anything that can cause a work stoppage.&nbsp; A few extra patch cables, a replacement gbic (if you need them), extra hard drives of each size you use, and label them all. If a drive is for the server and it is hot swappable put a note on it if they are supposed to support them selves.
<br><br>Once you get the machines set up I encourage you to use something like ghost4linux to take a backup of each machine.&nbsp; That way you can restore the machine to a good working state in 20 or 30 minutes instead of having to rebuild it by hand and hope you get it right. The image files can get a little big but if you throw and extra 750 drive in each of the two servers you can store them and mirror them at a fairly low cost (compared to the cost of your time)
<br><br>The last one is make a plan and try to define from the get go who is going to do what and once it is up and running who is responsible for it.&nbsp; I couldn&#39;t make out if you are just helping out or if you work for IT but it is very important that you know who should be doing what.&nbsp; If it isn&#39;t part of your job and it just something you are doing to help out then your boss would probably get upset if you had to go there every time someone couldn&#39;t remember where they saved something.&nbsp; If you spell it out at the beginning it will cut down on the problems later when you don&#39;t have time to help out.
<br><br>Best of luck to you on this project.&nbsp; It should be a lot of fun to build something from the ground up with all the new technology.<br>